In letzter Zeit wird viel über „autonome KI-Agenten“ gesprochen. Kein Hype, sondern Realität: OpenAI hat einen neuen Agent Mode veröffentlicht – verfügbar in GPT-4o Plus-, Team- oder Pro-Accounts.
Was macht der Agent?
Im Grunde kombiniert er zwei Tools:
Operator: klickt, scrollt, navigiert in einer virtuellen Umgebung
Research Assistant: analysiert Webseiten, sammelt Informationen, fasst zusammen
Das heißt: Der Agent kann Webseiten bedienen, Inhalte auswerten, PDF-Dateien erstellen oder einen Angebotsentwurf bauen – halbwegs autonom, aber mit Kontrolle.
Was bedeutet das konkret für den Alltag?
Beispiele aus der Praxis (z. B. für VAs, Freelancer oder kleine Beratungseinheiten):
Briefings aus E-Mail- und Kalenderdaten generieren
Angebotsdokumente aus Web- & Projektinfos bauen
LinkedIn- oder Instagram-Profile analysieren & optimieren
Der Agent bewegt sich wie ein Nutzer durch Tools und Seiten – innerhalb einer Sandbox. Und: Jede Aktion ist sichtbar und stoppbar.
Was (noch) nicht funktioniert:
Kein Login bei Portalen
Keine Zahlungen
Keine komplexe Facharbeit (z. B. Buchhaltung oder Verträge)
Fehleranfälligkeit bei UI-Elementen (z. B. falscher Klick oder Button nicht gefunden)
Mein Fazit:
Der ChatGPT Agent ist spannend für Standardaufgaben, wiederkehrende Vorgänge oder Content-Workflows.
Nicht geeignet für rechtlich, technische oder steuerliche Vorgänge – das bleibt beim Menschen.
Aber vielleicht ist genau das die Unterscheidung, die wir brauchen:
Was kann künftig automatisiert werden – und was bleibt „Beratung“ im echten Sinne?
Wer den Agent testen möchte, braucht:
ChatGPT Plus- oder Pro-Abo (GPT-4o)
Zugriff auf den Agent Mode unter „Tools“
Eine klare Beschreibung der Aufgabe in natürlicher Sprache
Mich interessiert:
Wie seht ihr das in der Kanzlei oder Beratungspraxis – Spielerei oder ernstzunehmende Entlastung?
Ich beobachte bei Chatti, dass die Antworten zu Rechtsfragen in den letzten Monaten immer "kreativer" und unrichtiger werden (Halluzinationen).
Selbst bei Anfragen zu konkreten Gesetzestexten denkt sich das dumme Ding irgendwelche Sachen aus, die nicht im Gesetz stehen oder standen und zitiert diese selbtssicher unter dem (ansonsten) korrekten §. Selbst bei entsprechenden Prompts.
Erst nach 1 - 2 mal nachfragen und Entschuldigungen schafft es die K"I" den korrekten Inhalt wiederzugeben. Alles sehr kreativ aber auch meist sehr unrichtig.
Gefährlich für den Unwissenden, der glaubt die Antworten seien korrekt.
Im übrigen ist die Spracherkennung meiner Meinung nach auch nicht mehr so gut...
@Dirk_Jendritzki, wo wird bei solchen Postings eigentlich die Schwelle zur Werbung überschritten?
Hi @Neu_hier ,
ich kann deine Kritik gut nachvollziehen – gerade bei rechtlichen Themen oder Gesetzestexten sollte man sich auf gar keinen Fall blind auf die KI verlassen. Da ist einfach noch zu viel „kreative Interpretation“ dabei, und das kann im schlimmsten Fall wirklich gefährlich sein.
Trotzdem: Ich sehe den Agent Mode (und generell ChatGPT) eher als Werkzeug – nicht als Ersatz für Fachwissen. Ich nutze GPT-4o z. B. fürs Strukturieren von Inhalten, Zusammenfassen von Webseiten oder um mir mal schnell einen Entwurf für eine Mail oder ein Briefing zu basteln. Dafür funktioniert’s echt gut – wenn man weiß, wie man’s benutzt.
Was mir in der Praxis hilft:
Je genauer ich beschreibe, was ich will (inkl. Rolle, Kontext, Hintergründe etc.), desto besser wird die Antwort.
Gesetzestexte lasse ich mir direkt von offiziellen Seiten auslesen (z. B. über den Agent Mode), statt sie mir vom Modell "nacherzählen" zu lassen.
Und wenn’s mal falsch ist, sag ich’s einfach – das Modell korrigiert sich oft, wenn man nochmal gezielt nachfragt.
Vielleicht ist genau das die spannende Frage: Wo hilft uns Automatisierung, und wo braucht’s den echten Menschen mit Erfahrung?
@rschoepe schrieb:
@Dirk_Jendritzki, wo wird bei solchen Postings eigentlich die Schwelle zur Werbung überschritten?
Hallo @rschoepe ,
schwierige Frage.
In diesem und auch in anderen Beiträgen desselben Nutzers werden keine konkreten Anbieter oder Produkte beworben – ChatGPT steht hier eher stellvertretend für beliebige andere KI-Tools. Zudem entsteht meist eine Diskussion, was zeigt, dass es Gesprächsbedarf gibt. Aus unserer Sicht handelt es sich daher nicht um Werbung.
Natürlich ist uns bewusst, dass sich die Person damit in gewisser Weise selbst präsentiert – aber das tut letztlich jeder andere Autor auch.
Sehr geehrter Herr Keuthen,
kann diese KI für mich kochen?
Mit freundlichen Grüßen
@Dirk_Jendritzki schrieb:
In diesem und auch in anderen Beiträgen desselben Nutzers werden keine konkreten Anbieter oder Produkte beworben – ChatGPT steht hier eher stellvertretend für beliebige andere KI-Tools.
Das sehe ich halt anders, weil es immer ChatGPT ist. Wenn @marco_keuthen auch mal über Claude, Gemini oder ein anderes KI-Tool "berichten" würde, wäre ich eher geneigt zuzustimmen.
@rschoepe schrieb:@Dirk_Jendritzki schrieb:
In diesem und auch in anderen Beiträgen desselben Nutzers werden keine konkreten Anbieter oder Produkte beworben – ChatGPT steht hier eher stellvertretend für beliebige andere KI-Tools.Das sehe ich halt anders, weil es immer ChatGPT ist. Wenn @marco_keuthen auch mal über Claude, Gemini oder ein anderes KI-Tool "berichten" würde, wäre ich eher geneigt zuzustimmen.
@rschoepe schrieb:@Dirk_Jendritzki schrieb:
In diesem und auch in anderen Beiträgen desselben Nutzers werden keine konkreten Anbieter oder Produkte beworben – ChatGPT steht hier eher stellvertretend für beliebige andere KI-Tools.Das sehe ich halt anders, weil es immer ChatGPT ist. Wenn @marco_keuthen auch mal über Claude, Gemini oder ein anderes KI-Tool "berichten" würde, wäre ich eher geneigt zuzustimmen.
@rschoepe schrieb:@Dirk_Jendritzki schrieb:
In diesem und auch in anderen Beiträgen desselben Nutzers werden keine konkreten Anbieter oder Produkte beworben – ChatGPT steht hier eher stellvertretend für beliebige andere KI-Tools.Das sehe ich halt anders, weil es immer ChatGPT ist. Wenn @marco_keuthen auch mal über Claude, Gemini oder ein anderes KI-Tool "berichten" würde, wäre ich eher geneigt zuzustimmen.
@rschoepe schrieb:@Dirk_Jendritzki schrieb:
In diesem und auch in anderen Beiträgen desselben Nutzers werden keine konkreten Anbieter oder Produkte beworben – ChatGPT steht hier eher stellvertretend für beliebige andere KI-Tools.Das sehe ich halt anders, weil es immer ChatGPT ist. Wenn @marco_keuthen auch mal über Claude, Gemini oder ein anderes KI-Tool "berichten" würde, wäre ich eher geneigt zuzustimmen.
In Summe vermutlich sogar weniger ChatGPT, habs aber ehrlich gesagt, nicht gezählt...
https://www.datev-community.de/t5/Freie-Themen/Komplexe-Schulungsunterlagen-oder-Fachartikel-besser/m-p/482228#M32380
@Neu_hier schrieb:Ich beobachte bei Chatti, dass die Antworten zu Rechtsfragen in den letzten Monaten immer "kreativer" und unrichtiger werden (Halluzinationen).
Ich kann die Aussagen vollständig bestätigen. Ich hatte ChatGPT zuvor als "zweite Meinung" zu CoPilotTax einfließen lassen.
Gleicher Prompt.
Die Resultate wichen zum Teil "gefährlich" zu Lasten von ChatGPT aus, womit ich dies endgültig "beerdigte" und mich auf Fach-KI-Lösungen konzentriere und last but not least, die Schlussprüfung der Sachverhalte vornehme; die Fach-KI liefert zudem fundierte Rechtsquellennachweise.
ChatGPT ist m.E. eben so ein Allrounder, der von Allem ein wenig kann, was mir in der Kanzlei zu wenig ist. Ich brauche einen Steuer- und Wirschafts-Fach-KI-"I_dio_ten" und keine vermeintliche eierlegende Wollmilchsau.
Ist für mich wie ein sportliches SUV, dass alles kann, aber in keiner Disziplin etwas richtig gut.
Der Fairness halber sei erwähnt, dass ich ChatGPT seit knapp einem viertel- bis halbem Jahr nicht mehr in Steuerfragen nutze, womit ich keine Aussage über den "Status Quo" geben kann.
Insofern soll es natürlich nicht heißen, dass ChatGPT für alle Zeiten raus ist, aber im Moment benötige ich fundierte Grundlageninfos.
@deusex schrieb:
@Neu_hier schrieb:Ich beobachte bei Chatti, dass die Antworten zu Rechtsfragen in den letzten Monaten immer "kreativer" und unrichtiger werden (Halluzinationen).
Ich kann die Aussagen vollständig bestätigen. Ich hatte ChatGPT zuvor als "zweite Meinung" zu CoPilotTax einfließen lassen.
Danke für die Einschätzung – da bin ich ganz bei dir.
Gerade bei rechtlichen oder steuerlichen Fragen ist Präzision das A und O. Und genau hier liegt die strukturelle Grenze eines LLMs wie ChatGPT.
Warum?
Ein LLM arbeitet nicht auf Basis von rechtlichen Prinzipien oder logischer Subsumtion. Es „versteht“ den Sachverhalt nicht im juristischen Sinne, sondern berechnet auf Grundlage statistischer Wahrscheinlichkeiten, was als nächster sinnvoller Textbaustein folgen könnte.
Das kann hilfreich sein für Denkanstöße, Zusammenfassungen, alternative Formulierungen – aber nicht für rechtlich belastbare Aussagen.
Fach-KI-Lösungen mit fester Anbindung an Gesetzestexte, Kommentierungen oder spezifische Datenquellen sind da aktuell deutlich verlässlicher.
Ich hatte das Thema vor einer Weile schon mal diskutiert, weil es aus meiner Sicht genau den Unterschied ausmacht, ob man ein Tool als „Assistent“ oder als „Berater“ einsetzt.
Klar ist aber auch: Die Technik entwickelt sich rasend schnell weiter – dranbleiben lohnt sich.
@marco_keuthen schrieb:Klar ist aber auch: Die Technik entwickelt sich rasend schnell weiter – dranbleiben lohnt sich.
Keine Frage.
Das gilt stets und für Alles im beruflichen Umfeld.