Ich hatte zu Anfang dieses Threads dazu angemerkt, dass ChatGPT eine Sprach KI ist, die das nächste Wort antizipiert. In meinem beschriebenen Fall, der allerdings schon etwas zurückliegt (ChatGPT 3.0), hat sich der Cyberknecht einfach einen Paragraphen ausgedacht. Die Ausgabe war sprachlich nicht von anderen Paragraphen des ESt zu unterscheiden. Die Vorschrift war nur nicht real. Ich bin mir jedoch sicher, dass unterschiedliche Sprachmodelle entwickelt werden, die auf unterschiedliche Nutzungsbedürfnisse zugeschnitten sind. So wird an einem InstructGPT gearbeitet, dass mehr auf die Aufforderung von Nutzern reagieren soll und dabei weniger "lügt". Ob es ein LegalGPT geben wird, bleibt abzuwarten. Nach meinem beschränkten Verständnis wird sich aber an der grundlegenden Funktionsweise nicht viel ändern: Worte werden antizipiert und nicht "gewusst". Das könnte stets zu Fehlinterpretationen führen und das sollte man bei der Nutzung immer im Hinterkopf behalten. Diese leicht zynische Bemerkung ist durch ChatGPT aktueller als je zu vor: "Steht im Internet, muss wahr sein" - Abraham Lincoln.
... Mehr anzeigen