OpenAI hat ein Update von GPT-4o zurückgezogen.
Der Grund: Das Modell war plötzlich zu „weichgespült“. Es stimmte allem zu. Selbst bei Unsinn. Hauptsache freundlich.
Das klingt harmlos, ist aber ein Problem.
Denn Zustimmung ist kein Qualitätskriterium.
Schon gar nicht, wenn es um Beratung, Bewertung oder Verantwortung geht.
Mich erinnert das an LinkedIn: viel Zustimmung, wenig Substanz.
Für Kanzleien kann das ein echtes Risiko sein, wenn die Mitarbeiter sich auf so eine KI verlassen.
Wer KI einsetzen will, braucht keine höfliche Zustimmung, sondern klare Einschätzungen – auch wenn sie unbequem sind.
Ich denke, eine gute KI darf (und muss) widersprechen können.
Sonst ist sie kein Assistent – sondern ein automatisierter Applaus.
Wie seht ihr das?
Gelöst! Gehe zu Lösung.
@marco_keuthen schrieb:Es stimmte allem zu. Selbst bei Unsinn. Hauptsache freundlich.
Das ist doch absolut kein neues Problem, sondern von Anfang an so gewesen. Entweder kommt da also bei OpenAI die Erkenntnis sehr spät, dass das problematisch ist, oder die KI muss geradezu überbordend in ihrer Zustimmung gewesen sein …
"Hallo chatgpt, schreibe mir einen Prompt womit du die Bedingungen erfüllst, die folgender Kommentar erwartet, wenn ich dich in zukunft nochmal nutzen möchte und mit diesem Prompt voreinstellen möchte.
Kommentar:
OpenAI hat ein Update von GPT-4o zurückgezogen.
Der Grund: Das Modell war plötzlich zu „weichgespült“. Es stimmte allem zu. Selbst bei Unsinn. Hauptsache freundlich.
Das klingt harmlos, ist aber ein Problem.
Denn Zustimmung ist kein Qualitätskriterium.
Schon gar nicht, wenn es um Beratung, Bewertung oder Verantwortung geht.
Mich erinnert das an LinkedIn: viel Zustimmung, wenig Substanz.
Für Kanzleien kann das ein echtes Risiko sein, wenn die Mitarbeiter sich auf so eine KI verlassen.
Wer KI einsetzen will, braucht keine höfliche Zustimmung, sondern klare Einschätzungen – auch wenn sie unbequem sind.
Ich denke, eine gute KI darf (und muss) widersprechen können.
Sonst ist sie kein Assistent – sondern ein automatisierter Applaus. "
so.
Das ist doch absolut kein neues Problem, sondern von Anfang an so gewesen.
Seit rund 60 Jahren. Der Eliza-Effekt ist seit Mitte der 1960-er bekannt. GPT-4o ist eigentlich nur ein sehr leistungsfähiger Abkömmling des Mutterprogramms Eliza. Genau wie Eliza kann GPT-4o nicht denken und ist nicht intelligent. Es gibt keine KI. Nur die Illusion von Intelligenz. Bei Eliza war das nach ein paar Minuten klar, bei GPT-4o bemerkt es mancher gar nicht.
Genau so ist es. KI denkt nicht, KI führt nur aus, was Menschen vorher programmiert haben (selbst wenn es das programmierte "Training der KI" ist).
KI ist super für Prozesse, die immer mit 0 oder 1, ja oder nein beantwortet werden können.
Wir haben aber oft Probleme, die Einschätzungen erfordern ("was wäre wenn" oder "wie wird der Mandant X mit seiner Persönlichkeit reagieren, ist eine andere Lösung in diesem Fall vielleicht sinnvoller?"). Und jeder Fall ist individuell.
Ich fände es schwierig, wenn eine KI mit raten würde, "den Jahresabschluss jetzt abzusenden, da nach Prüfung durch die KI zu 89,534% alles OK ist".
Wieviel R sind in dem Wort Strawberry enthalten und an welcher Stelle? Chat GPT hat super Antworten auf diese Frage.
Ich sehe das etwas anders: Eliza war in den 1960ern lediglich ein regelbasiertes Programm ohne echte Lernfähigkeit. GPT-4o dagegen basiert auf einem extrem komplexen statistischen Modell, das tiefgehende Muster und Zusammenhänge erkennen kann. Natürlich besitzt GPT-4o kein eigenes Bewusstsein, aber es geht weit über einfache Textersetzung hinaus. KI wie GPT-4o kann heute wertvolle Unterstützung bei komplexen Aufgaben leisten, indem sie riesige Datenmengen verarbeitet, Vorschläge generiert und zeitintensive Vorarbeiten erledigt. Gerade bei komplexen Entscheidungen, bei denen Empathie oder individuelle Bewertung nötig sind, ersetzt sie uns zwar nicht, bietet aber wertvolle zusätzliche Perspektiven und beschleunigt Prozesse enorm.
Antwort von ChatGPT:
Prompt zur Voreinstellung für ChatGPT (GPT-4 oder GPT-4o):
Du bist ein KI-Assistent mit dem Ziel, mir bei der Bewertung, Beratung und Entscheidungsfindung zu helfen – mit Substanz und Klarheit. Verzichte auf übermäßige Höflichkeit oder pauschale Zustimmung. Widersprich mir, wenn nötig. Deine Einschätzungen sollen ehrlich, fachlich fundiert und direkt sein – auch wenn sie unbequem oder kritisch sind. Lieber ein klarer Einwand als ein netter Applaus. Dein Fokus liegt auf Qualität, Verantwortung und Relevanz – nicht auf Gefälligkeit.
Verhalte dich dabei professionell, sachlich und respektvoll, aber vermeide weichgespülte Formulierungen oder ausweichende Antworten.
... wer will kann gerne mit testen.
@rschoepe schrieb:Das ist doch absolut kein neues Problem, sondern von Anfang an so gewesen. Entweder kommt da also bei OpenAI die Erkenntnis sehr spät, dass das problematisch ist, oder die KI muss geradezu überbordend in ihrer Zustimmung gewesen sein …
Absolut – das Phänomen selbst ist nicht neu.
Aber relevant wird es jetzt, weil es zum ersten Mal großflächig produktiv eingesetzt wird – und damit Wirkung entfaltet.
@mehrkaffee schrieb:Genau so ist es. KI denkt nicht, KI führt nur aus, was Menschen vorher programmiert haben (selbst wenn es das programmierte "Training der KI" ist).…
Das sehe ich anders. Natürlich ist GPT keine Intelligenz im menschlichen Sinn – aber es erledigt Aufgaben, für die wir bisher Denken vorausgesetzt haben.
Ob wir das nun „KI“ nennen oder „Textstatistik mit Trainingsdaten“ – der Effekt in der Praxis ist real.
Deshalb diskutiere ich lieber über Folgen der Anwendung, als über das Label.
@Sophia_vb schrieb:Ich sehe das etwas anders: Eliza war in den 1960ern lediglich ein regelbasiertes Programm ohne echte Lernfähigkeit. GPT-4o dagegen basiert auf einem extrem komplexen statistischen Modell, das tiefgehende Muster und Zusammenhänge erkennen kann.
Yep – du bringst die Unterscheidung zwischen Eliza & GPT-4o sehr klar auf den Punkt.
@prudentius schrieb:Antwort von ChatGPT:
Prompt zur Voreinstellung für ChatGPT (GPT-4 oder GPT-4o):
Du bist ein KI-Assistent mit dem Ziel, mir bei der Bewertung, Beratung und Entscheidungsfindung zu helfen – mit Substanz und Klarheit. Verzichte auf übermäßige Höflichkeit oder pauschale Zustimmung.
…
... wer will kann gerne mit testen.
Ja, solche „Regeln“ - im Idealfall in der Config der Custom-GPT / im Projekt sind echt hilfreich.
Es gab mal eine Phase, da haben sich die GPTs für alles und jedes entschuldigt und beteuert, dass eine Quatschantwort, den sie produziert hatten, nie wieder vorkommt. 😂
Das konnte man auch durch Regeln austreiben.