"Hallo chatgpt, schreibe mir einen Prompt womit du die Bedingungen erfüllst, die folgender Kommentar erwartet, wenn ich dich in zukunft nochmal nutzen möchte und mit diesem Prompt voreinstellen möchte. Kommentar: OpenAI hat ein Update von GPT-4o zurückgezogen. Der Grund: Das Modell war plötzlich zu „weichgespült“. Es stimmte allem zu. Selbst bei Unsinn. Hauptsache freundlich. Das klingt harmlos, ist aber ein Problem. Denn Zustimmung ist kein Qualitätskriterium. Schon gar nicht, wenn es um Beratung, Bewertung oder Verantwortung geht. Mich erinnert das an LinkedIn: viel Zustimmung, wenig Substanz. Für Kanzleien kann das ein echtes Risiko sein, wenn die Mitarbeiter sich auf so eine KI verlassen. Wer KI einsetzen will, braucht keine höfliche Zustimmung, sondern klare Einschätzungen – auch wenn sie unbequem sind. Ich denke, eine gute KI darf (und muss) widersprechen können. Sonst ist sie kein Assistent – sondern ein automatisierter Applaus. " so.
... Mehr anzeigen