abbrechen
Suchergebnisse werden angezeigt für 
Stattdessen suchen nach 
Meintest du: 

OpenAI hat ein Update von GPT-4o zurückgezogen.

10
letzte Antwort am 12.05.2025 18:04:37 von marco_keuthen
Dieser Beitrag ist geschlossen
0 Personen hatten auch diese Frage
marco_keuthen
Aufsteiger
Offline Online
Nachricht 1 von 11
498 Mal angesehen

OpenAI hat ein Update von GPT-4o zurückgezogen.

 

Der Grund: Das Modell war plötzlich zu „weichgespült“. Es stimmte allem zu. Selbst bei Unsinn. Hauptsache freundlich.

 

Das klingt harmlos, ist aber ein Problem.

 

Denn Zustimmung ist kein Qualitätskriterium.
Schon gar nicht, wenn es um Beratung, Bewertung oder Verantwortung geht.

 

Mich erinnert das an LinkedIn: viel Zustimmung, wenig Substanz.

Für Kanzleien kann das ein echtes Risiko sein, wenn die Mitarbeiter sich auf so eine KI verlassen.


Wer KI einsetzen will, braucht keine höfliche Zustimmung, sondern klare Einschätzungen – auch wenn sie unbequem sind.

 

Ich denke, eine gute KI darf (und muss) widersprechen können.
Sonst ist sie kein Assistent – sondern ein automatisierter Applaus.

 

Wie seht ihr das?

Grüße, Marco Keuthen | DATEV Solution Partner | Flieger | Telemarker | Vanlife
über mich
rschoepe
Experte
Offline Online
Nachricht 2 von 11
445 Mal angesehen

@marco_keuthen  schrieb:

Es stimmte allem zu. Selbst bei Unsinn. Hauptsache freundlich.


Das ist doch absolut kein neues Problem, sondern von Anfang an so gewesen. Entweder kommt da also bei OpenAI die Erkenntnis sehr spät, dass das problematisch ist, oder die KI muss geradezu überbordend in ihrer Zustimmung gewesen sein …

0 Kudos
prudentius
Aufsteiger
Offline Online
Nachricht 3 von 11
415 Mal angesehen

"Hallo chatgpt, schreibe mir einen Prompt womit du die Bedingungen erfüllst, die folgender Kommentar erwartet, wenn ich dich in zukunft nochmal nutzen möchte und mit diesem Prompt voreinstellen möchte. 
Kommentar: 

OpenAI hat ein Update von GPT-4o zurückgezogen.

 

Der Grund: Das Modell war plötzlich zu „weichgespült“. Es stimmte allem zu. Selbst bei Unsinn. Hauptsache freundlich.

 

Das klingt harmlos, ist aber ein Problem.

 

Denn Zustimmung ist kein Qualitätskriterium.
Schon gar nicht, wenn es um Beratung, Bewertung oder Verantwortung geht.

 

Mich erinnert das an LinkedIn: viel Zustimmung, wenig Substanz.

Für Kanzleien kann das ein echtes Risiko sein, wenn die Mitarbeiter sich auf so eine KI verlassen.


Wer KI einsetzen will, braucht keine höfliche Zustimmung, sondern klare Einschätzungen – auch wenn sie unbequem sind.

 

Ich denke, eine gute KI darf (und muss) widersprechen können.
Sonst ist sie kein Assistent – sondern ein automatisierter Applaus. "

 

so.

0 Kudos
Seeker
Einsteiger
Offline Online
Nachricht 4 von 11
342 Mal angesehen

Das ist doch absolut kein neues Problem, sondern von Anfang an so gewesen.

Seit rund 60 Jahren. Der Eliza-Effekt ist seit Mitte der 1960-er bekannt. GPT-4o ist eigentlich nur ein sehr leistungsfähiger Abkömmling des Mutterprogramms Eliza. Genau wie Eliza kann GPT-4o nicht denken und ist nicht intelligent. Es gibt keine KI. Nur die Illusion von Intelligenz. Bei Eliza war das nach ein paar Minuten klar, bei GPT-4o bemerkt es mancher gar nicht.

mehrkaffee
Fortgeschrittener
Offline Online
Nachricht 5 von 11
320 Mal angesehen

Genau so ist es. KI denkt nicht, KI führt nur aus, was Menschen vorher programmiert haben (selbst wenn es das programmierte "Training der KI" ist).

 

KI ist super für Prozesse, die immer mit 0 oder 1, ja oder nein beantwortet werden können.

 

Wir haben aber oft Probleme, die Einschätzungen erfordern ("was wäre wenn" oder "wie wird der Mandant X mit seiner Persönlichkeit reagieren, ist eine andere Lösung in diesem Fall vielleicht sinnvoller?"). Und jeder Fall ist individuell.

 

Ich fände es schwierig, wenn eine KI mit raten würde, "den Jahresabschluss jetzt abzusenden, da nach Prüfung durch die KI zu 89,534% alles OK ist".

 

Wieviel R sind in dem Wort Strawberry enthalten und an welcher Stelle? Chat GPT hat super Antworten auf diese Frage.

Sophia_vb
Beginner
Offline Online
Nachricht 6 von 11
237 Mal angesehen

Ich sehe das etwas anders: Eliza war in den 1960ern lediglich ein regelbasiertes Programm ohne echte Lernfähigkeit. GPT-4o dagegen basiert auf einem extrem komplexen statistischen Modell, das tiefgehende Muster und Zusammenhänge erkennen kann. Natürlich besitzt GPT-4o kein eigenes Bewusstsein, aber es geht weit über einfache Textersetzung hinaus. KI wie GPT-4o kann heute wertvolle Unterstützung bei komplexen Aufgaben leisten, indem sie riesige Datenmengen verarbeitet, Vorschläge generiert und zeitintensive Vorarbeiten erledigt. Gerade bei komplexen Entscheidungen, bei denen Empathie oder individuelle Bewertung nötig sind, ersetzt sie uns zwar nicht, bietet aber wertvolle zusätzliche Perspektiven und beschleunigt Prozesse enorm.

prudentius
Aufsteiger
Offline Online
Nachricht 7 von 11
170 Mal angesehen

Antwort von ChatGPT:

 

Prompt zur Voreinstellung für ChatGPT (GPT-4 oder GPT-4o):

Du bist ein KI-Assistent mit dem Ziel, mir bei der Bewertung, Beratung und Entscheidungsfindung zu helfen – mit Substanz und Klarheit. Verzichte auf übermäßige Höflichkeit oder pauschale Zustimmung. Widersprich mir, wenn nötig. Deine Einschätzungen sollen ehrlich, fachlich fundiert und direkt sein – auch wenn sie unbequem oder kritisch sind. Lieber ein klarer Einwand als ein netter Applaus. Dein Fokus liegt auf Qualität, Verantwortung und Relevanz – nicht auf Gefälligkeit.

Verhalte dich dabei professionell, sachlich und respektvoll, aber vermeide weichgespülte Formulierungen oder ausweichende Antworten.

... wer will kann gerne mit testen. 

0 Kudos
marco_keuthen
Aufsteiger
Offline Online
Nachricht 8 von 11
123 Mal angesehen

@rschoepe  schrieb:

Das ist doch absolut kein neues Problem, sondern von Anfang an so gewesen. Entweder kommt da also bei OpenAI die Erkenntnis sehr spät, dass das problematisch ist, oder die KI muss geradezu überbordend in ihrer Zustimmung gewesen sein …


Absolut – das Phänomen selbst ist nicht neu.

 

Aber relevant wird es jetzt, weil es zum ersten Mal großflächig produktiv eingesetzt wird – und damit Wirkung entfaltet.

Grüße, Marco Keuthen | DATEV Solution Partner | Flieger | Telemarker | Vanlife
über mich
0 Kudos
marco_keuthen
Aufsteiger
Offline Online
Nachricht 9 von 11
122 Mal angesehen

@mehrkaffee  schrieb:

Genau so ist es. KI denkt nicht, KI führt nur aus, was Menschen vorher programmiert haben (selbst wenn es das programmierte "Training der KI" ist).…

Das sehe ich anders. Natürlich ist GPT keine Intelligenz im menschlichen Sinn – aber es erledigt Aufgaben, für die wir bisher Denken vorausgesetzt haben.

 

Ob wir das nun „KI“ nennen oder „Textstatistik mit Trainingsdaten“ – der Effekt in der Praxis ist real.

 

Deshalb diskutiere ich lieber über Folgen der Anwendung, als über das Label.

Grüße, Marco Keuthen | DATEV Solution Partner | Flieger | Telemarker | Vanlife
über mich
0 Kudos
marco_keuthen
Aufsteiger
Offline Online
Nachricht 10 von 11
119 Mal angesehen

@Sophia_vb  schrieb:

Ich sehe das etwas anders: Eliza war in den 1960ern lediglich ein regelbasiertes Programm ohne echte Lernfähigkeit. GPT-4o dagegen basiert auf einem extrem komplexen statistischen Modell, das tiefgehende Muster und Zusammenhänge erkennen kann.

Yep – du bringst die Unterscheidung zwischen Eliza & GPT-4o sehr klar auf den Punkt.

Grüße, Marco Keuthen | DATEV Solution Partner | Flieger | Telemarker | Vanlife
über mich
0 Kudos
marco_keuthen
Aufsteiger
Offline Online
Nachricht 11 von 11
113 Mal angesehen

@prudentius  schrieb:

Antwort von ChatGPT:

 

Prompt zur Voreinstellung für ChatGPT (GPT-4 oder GPT-4o):

Du bist ein KI-Assistent mit dem Ziel, mir bei der Bewertung, Beratung und Entscheidungsfindung zu helfen – mit Substanz und Klarheit. Verzichte auf übermäßige Höflichkeit oder pauschale Zustimmung.

... wer will kann gerne mit testen. 


Ja, solche „Regeln“ - im Idealfall in der Config der Custom-GPT / im Projekt sind echt hilfreich.

 

Es gab mal eine Phase, da haben sich die GPTs für alles und jedes entschuldigt und beteuert, dass eine Quatschantwort, den sie produziert hatten, nie wieder vorkommt. 😂

 

Das konnte man auch durch Regeln austreiben.

Grüße, Marco Keuthen | DATEV Solution Partner | Flieger | Telemarker | Vanlife
über mich
0 Kudos
10
letzte Antwort am 12.05.2025 18:04:37 von marco_keuthen
Dieser Beitrag ist geschlossen
0 Personen hatten auch diese Frage