Tipp für alle, die längere Fachtexte, PDFs oder Schulungsunterlagen in ChatGPT & Co. einbinden wollen:
Eine neue Untersuchung hat getestet, wie viel Text große KI-Modelle in der Praxis tatsächlich verarbeiten können – mit teilweise ernüchternden Ergebnissen.
Versprochen wurden bis zu 10 Millionen Tokens (Meta), 1 Million bei Gemini oder 200.000 bei Claude.
Die Realität sieht anders aus:
- GPT-4o: gute Qualität bei ca. 8.000 Tokens (entspricht etwa 10 DIN-A4-Seiten)
- Claude 3.5 Sonnet: bricht bei 5 Seiten ein
- Gemini 1.5 Pro: schafft rund 1.500 Wörter = 2,5 Seiten
Besonders bei komplexeren Dokumenten (z. B. steuerliche Fachtexte) zeigt sich, dass die Qualität deutlich abnimmt, sobald zu viel auf einmal eingespeist wird.
Mein Zwischenfazit:
- Große Textmengen lieber aufteilen
- Kontext lieber sauber strukturieren als „alles reinwerfen“
- NotebookLM wirkt bei mir derzeit robuster (Mindmaps, gezielte Fragen zu Abschnitten)
➡ Vielleicht hilfreich für alle, die mit Schulungsmaterialien oder Fachinformationen arbeiten und diese in GPT oder CustomGPTs einbinden.
Grüße, Marco Keuthen | DATEV Solution Partner | Flieger | Telemarker | Vanlife
über mich