In letzter Zeit wird viel über „autonome KI-Agenten“ gesprochen. Kein Hype, sondern Realität: OpenAI hat einen neuen Agent Mode veröffentlicht – verfügbar in GPT-4o Plus-, Team- oder Pro-Accounts.
Was macht der Agent?
Im Grunde kombiniert er zwei Tools:
Operator: klickt, scrollt, navigiert in einer virtuellen Umgebung
Research Assistant: analysiert Webseiten, sammelt Informationen, fasst zusammen
Das heißt: Der Agent kann Webseiten bedienen, Inhalte auswerten, PDF-Dateien erstellen oder einen Angebotsentwurf bauen – halbwegs autonom, aber mit Kontrolle.
Was bedeutet das konkret für den Alltag?
Beispiele aus der Praxis (z. B. für VAs, Freelancer oder kleine Beratungseinheiten):
Briefings aus E-Mail- und Kalenderdaten generieren
Angebotsdokumente aus Web- & Projektinfos bauen
LinkedIn- oder Instagram-Profile analysieren & optimieren
Der Agent bewegt sich wie ein Nutzer durch Tools und Seiten – innerhalb einer Sandbox. Und: Jede Aktion ist sichtbar und stoppbar.
Was (noch) nicht funktioniert:
Kein Login bei Portalen
Keine Zahlungen
Keine komplexe Facharbeit (z. B. Buchhaltung oder Verträge)
Fehleranfälligkeit bei UI-Elementen (z. B. falscher Klick oder Button nicht gefunden)
Mein Fazit:
Der ChatGPT Agent ist spannend für Standardaufgaben, wiederkehrende Vorgänge oder Content-Workflows.
Nicht geeignet für rechtlich, technische oder steuerliche Vorgänge – das bleibt beim Menschen.
Aber vielleicht ist genau das die Unterscheidung, die wir brauchen:
Was kann künftig automatisiert werden – und was bleibt „Beratung“ im echten Sinne?
Wer den Agent testen möchte, braucht:
ChatGPT Plus- oder Pro-Abo (GPT-4o)
Zugriff auf den Agent Mode unter „Tools“
Eine klare Beschreibung der Aufgabe in natürlicher Sprache
Mich interessiert:
Wie seht ihr das in der Kanzlei oder Beratungspraxis – Spielerei oder ernstzunehmende Entlastung?
Ich beobachte bei Chatti, dass die Antworten zu Rechtsfragen in den letzten Monaten immer "kreativer" und unrichtiger werden (Halluzinationen).
Selbst bei Anfragen zu konkreten Gesetzestexten denkt sich das dumme Ding irgendwelche Sachen aus, die nicht im Gesetz stehen oder standen und zitiert diese selbtssicher unter dem (ansonsten) korrekten §. Selbst bei entsprechenden Prompts.
Erst nach 1 - 2 mal nachfragen und Entschuldigungen schafft es die K"I" den korrekten Inhalt wiederzugeben. Alles sehr kreativ aber auch meist sehr unrichtig.
Gefährlich für den Unwissenden, der glaubt die Antworten seien korrekt.
Im übrigen ist die Spracherkennung meiner Meinung nach auch nicht mehr so gut...
@Dirk_Jendritzki, wo wird bei solchen Postings eigentlich die Schwelle zur Werbung überschritten?
Hi @Neu_hier ,
ich kann deine Kritik gut nachvollziehen – gerade bei rechtlichen Themen oder Gesetzestexten sollte man sich auf gar keinen Fall blind auf die KI verlassen. Da ist einfach noch zu viel „kreative Interpretation“ dabei, und das kann im schlimmsten Fall wirklich gefährlich sein.
Trotzdem: Ich sehe den Agent Mode (und generell ChatGPT) eher als Werkzeug – nicht als Ersatz für Fachwissen. Ich nutze GPT-4o z. B. fürs Strukturieren von Inhalten, Zusammenfassen von Webseiten oder um mir mal schnell einen Entwurf für eine Mail oder ein Briefing zu basteln. Dafür funktioniert’s echt gut – wenn man weiß, wie man’s benutzt.
Was mir in der Praxis hilft:
Je genauer ich beschreibe, was ich will (inkl. Rolle, Kontext, Hintergründe etc.), desto besser wird die Antwort.
Gesetzestexte lasse ich mir direkt von offiziellen Seiten auslesen (z. B. über den Agent Mode), statt sie mir vom Modell "nacherzählen" zu lassen.
Und wenn’s mal falsch ist, sag ich’s einfach – das Modell korrigiert sich oft, wenn man nochmal gezielt nachfragt.
Vielleicht ist genau das die spannende Frage: Wo hilft uns Automatisierung, und wo braucht’s den echten Menschen mit Erfahrung?
@rschoepe schrieb:
@Dirk_Jendritzki, wo wird bei solchen Postings eigentlich die Schwelle zur Werbung überschritten?
Hallo @rschoepe ,
schwierige Frage.
In diesem und auch in anderen Beiträgen desselben Nutzers werden keine konkreten Anbieter oder Produkte beworben – ChatGPT steht hier eher stellvertretend für beliebige andere KI-Tools. Zudem entsteht meist eine Diskussion, was zeigt, dass es Gesprächsbedarf gibt. Aus unserer Sicht handelt es sich daher nicht um Werbung.
Natürlich ist uns bewusst, dass sich die Person damit in gewisser Weise selbst präsentiert – aber das tut letztlich jeder andere Autor auch.
Sehr geehrter Herr Keuthen,
kann diese KI für mich kochen?
Mit freundlichen Grüßen
@Dirk_Jendritzki schrieb:
In diesem und auch in anderen Beiträgen desselben Nutzers werden keine konkreten Anbieter oder Produkte beworben – ChatGPT steht hier eher stellvertretend für beliebige andere KI-Tools.
Das sehe ich halt anders, weil es immer ChatGPT ist. Wenn @marco_keuthen auch mal über Claude, Gemini oder ein anderes KI-Tool "berichten" würde, wäre ich eher geneigt zuzustimmen.
@rschoepe schrieb:@Dirk_Jendritzki schrieb:
In diesem und auch in anderen Beiträgen desselben Nutzers werden keine konkreten Anbieter oder Produkte beworben – ChatGPT steht hier eher stellvertretend für beliebige andere KI-Tools.Das sehe ich halt anders, weil es immer ChatGPT ist. Wenn @marco_keuthen auch mal über Claude, Gemini oder ein anderes KI-Tool "berichten" würde, wäre ich eher geneigt zuzustimmen.
@rschoepe schrieb:@Dirk_Jendritzki schrieb:
In diesem und auch in anderen Beiträgen desselben Nutzers werden keine konkreten Anbieter oder Produkte beworben – ChatGPT steht hier eher stellvertretend für beliebige andere KI-Tools.Das sehe ich halt anders, weil es immer ChatGPT ist. Wenn @marco_keuthen auch mal über Claude, Gemini oder ein anderes KI-Tool "berichten" würde, wäre ich eher geneigt zuzustimmen.
@rschoepe schrieb:@Dirk_Jendritzki schrieb:
In diesem und auch in anderen Beiträgen desselben Nutzers werden keine konkreten Anbieter oder Produkte beworben – ChatGPT steht hier eher stellvertretend für beliebige andere KI-Tools.Das sehe ich halt anders, weil es immer ChatGPT ist. Wenn @marco_keuthen auch mal über Claude, Gemini oder ein anderes KI-Tool "berichten" würde, wäre ich eher geneigt zuzustimmen.
@rschoepe schrieb:@Dirk_Jendritzki schrieb:
In diesem und auch in anderen Beiträgen desselben Nutzers werden keine konkreten Anbieter oder Produkte beworben – ChatGPT steht hier eher stellvertretend für beliebige andere KI-Tools.Das sehe ich halt anders, weil es immer ChatGPT ist. Wenn @marco_keuthen auch mal über Claude, Gemini oder ein anderes KI-Tool "berichten" würde, wäre ich eher geneigt zuzustimmen.
In Summe vermutlich sogar weniger ChatGPT, habs aber ehrlich gesagt, nicht gezählt...
https://www.datev-community.de/t5/Freie-Themen/Komplexe-Schulungsunterlagen-oder-Fachartikel-besser/m-p/482228#M32380
@Neu_hier schrieb:Ich beobachte bei Chatti, dass die Antworten zu Rechtsfragen in den letzten Monaten immer "kreativer" und unrichtiger werden (Halluzinationen).
Ich kann die Aussagen vollständig bestätigen. Ich hatte ChatGPT zuvor als "zweite Meinung" zu CoPilotTax einfließen lassen.
Gleicher Prompt.
Die Resultate wichen zum Teil "gefährlich" zu Lasten von ChatGPT aus, womit ich dies endgültig "beerdigte" und mich auf Fach-KI-Lösungen konzentriere und last but not least, die Schlussprüfung der Sachverhalte vornehme; die Fach-KI liefert zudem fundierte Rechtsquellennachweise.
ChatGPT ist m.E. eben so ein Allrounder, der von Allem ein wenig kann, was mir in der Kanzlei zu wenig ist. Ich brauche einen Steuer- und Wirschafts-Fach-KI-"I_dio_ten" und keine vermeintliche eierlegende Wollmilchsau.
Ist für mich wie ein sportliches SUV, dass alles kann, aber in keiner Disziplin etwas richtig gut.
Der Fairness halber sei erwähnt, dass ich ChatGPT seit knapp einem viertel- bis halbem Jahr nicht mehr in Steuerfragen nutze, womit ich keine Aussage über den "Status Quo" geben kann.
Insofern soll es natürlich nicht heißen, dass ChatGPT für alle Zeiten raus ist, aber im Moment benötige ich fundierte Grundlageninfos.
@deusex schrieb:
@Neu_hier schrieb:Ich beobachte bei Chatti, dass die Antworten zu Rechtsfragen in den letzten Monaten immer "kreativer" und unrichtiger werden (Halluzinationen).
Ich kann die Aussagen vollständig bestätigen. Ich hatte ChatGPT zuvor als "zweite Meinung" zu CoPilotTax einfließen lassen.
Danke für die Einschätzung – da bin ich ganz bei dir.
Gerade bei rechtlichen oder steuerlichen Fragen ist Präzision das A und O. Und genau hier liegt die strukturelle Grenze eines LLMs wie ChatGPT.
Warum?
Ein LLM arbeitet nicht auf Basis von rechtlichen Prinzipien oder logischer Subsumtion. Es „versteht“ den Sachverhalt nicht im juristischen Sinne, sondern berechnet auf Grundlage statistischer Wahrscheinlichkeiten, was als nächster sinnvoller Textbaustein folgen könnte.
Das kann hilfreich sein für Denkanstöße, Zusammenfassungen, alternative Formulierungen – aber nicht für rechtlich belastbare Aussagen.
Fach-KI-Lösungen mit fester Anbindung an Gesetzestexte, Kommentierungen oder spezifische Datenquellen sind da aktuell deutlich verlässlicher.
Ich hatte das Thema vor einer Weile schon mal diskutiert, weil es aus meiner Sicht genau den Unterschied ausmacht, ob man ein Tool als „Assistent“ oder als „Berater“ einsetzt.
Klar ist aber auch: Die Technik entwickelt sich rasend schnell weiter – dranbleiben lohnt sich.
@marco_keuthen schrieb:Klar ist aber auch: Die Technik entwickelt sich rasend schnell weiter – dranbleiben lohnt sich.
Keine Frage.
Das gilt stets und für Alles im beruflichen Umfeld.
Hallo @marco_keuthen !
Wer sich etwas intensiver speziell mit Chat-GPT beschäftigt und ihn/sie "ausprobiert", kommt zwangsläufig zu dem skizzierten Ergebnis. Es gibt aber Methoden, die helfen, Ergebnisse zu optimieren. Das fängt schon damit an, dass man sich einen GPT "bastelt", der konkrete Vorgaben bekommt, wie z.B. keine Webrecherche oder keine Zitierung nicht seriöser Quellen, schreib im Gutachtenstil usw. usw. Wenn man dann noch Fachdokumente hochlädt und vorgibt, diese ausschließlich zu nutzen, ggf. gekoppelt mit beschränkter Webrecherche und Deep Research, bekommt man ganz passable Ergebnisse. Wer allerdings glaubt, damit keine Arbeit mehr zu haben, wird später viel mehr Arbeit haben, wenn er/sie Regressansprüche abwehren muss. Und: eine billigere Schreibkraft für Textredaktion gibt es nicht...
Im Endeffekt ersetzt die KI nicht das eigene Hirn und Fachwissen, hilft aber Ressourcen zu optimieren und Zeit zu sparen. Das gilt insbesondere für Fachfragen, die sowieso noch ergebnisoffen sind. Bsp.: Möglichkeiten der Umwandlung eines Treuhandmodells - so selbst durchexerziert. Ich hätte um alles relevante aufzuschreiben bestimmt einen Tag gebraucht. Mit Chat-GPT unter den oben genannten Optimierungsmaßnahmen hat das vom Prompt über den Deep Research bis zum fertigen Text nebst Redaktion eine halbe Stunde gedauert.
In den Anfängen von Chat-GPT - also vor ein paar Jahren - hatte ich spaßeshalber Chat-GPT aufgefordert, ein Gutachten zu § 15a EStG zu verfassen. Das war ein Spaß! Ich habe Tränen gelacht und Bauchschmerzen bekommen.
Heute, ein paar Jahre später sieht die Sache ganz anders aus. Das ist die Fachebene.
Aber man kann im Büroalltag die KI auch für hilfreiche Nebenjobs nutzen, die man selbst nicht hinkriegt, weil das Fachwissen eben gar nicht das ist. Tolles Beispiel: VBA-Programmierung in Office-Anwendungen. In EXCEL habe ich jetzt in der Menüleiste ein Icon, mit dessen Hilfe ich per Klick den Review von EXCEL-Arbeitspapieren dokumentiere. In Outlook habe ich zwei Icons, die ich bei SPAM-Eingang verwende. Automatisch generierte Antwortmails, führen einer SPAM-Liste mit Dokumentation des Eingangs, des Versenders und ob wiederholter Eingang - alles mit einem Klick. Da gibt es noch mehr Beispiele. Der Fantasie sind fast keine Grenzen gesetzt. Ok - Wochenendzeit, so etwas mit der KI zu regeln. Aber im Alltag später - echte Zeitersparnis.
@heitschmidt Absolut
Ich nutze KI zB aktuell intensiv als Sparring beim Programmieren.
Komme ursprünglich aus dem Coding (Computer-Games)
Jetzt wieder im Retro-Bereich und Raspberry-Zeug für meinen Van.
Das ist so hilfreich, um mich wieder in die Themen reinzuschaffen.
Was ich in der C't las lässt mich eher schlimmes befürchten. Jedenfalls jetzt. Ob in einem Jahr noch? Keine Ahnung. Aber da KI's halluzinieren können, haben wir hier ein gesteigertes Risiko.
Klingt ganz stark zu einer Risikofolgenabschätzung beim Datenschutz - und den diversen anderen Gesetzen/Verordnungen usw. zur Härtung der Sicherheit.
In einem Produktivsystem? Große Bauchschmerzen! In einem Testsystem? Warum nicht? Erfahrungen sammeln ist nicht verkehrt.
QJ