Fehler, Fallstricke und Irrtümer von ChatGPT

Die KI ChatGPT liefert hervorragende Ergebnisse, wenn man gute Fragen stellt. Sie schreibt allerdings auch mit größter Selbstverständlichkeit Blödsinn. Zwar entschuldigt sie sich dann auf Nachfrage, aber man muss eben erst mal nachfragen. Wichtig ist also, die Antworten einem Faktencheck zu unterziehen.

Welche Fehler sind Ihnen bereits aufgefallen? Schreiben Sie sie in die Kommentare, denn dann können wir alle voneinander lernen.

1. Warum macht ChatGPT Fehler und man merkt es nicht?

ChatGPT hat einerseits Zugang zu einem unfassbar großen Textdatenbestand. Es wurde trainiert auf 45 Terabyte Textdaten! Das ist eine unvorstellbar große Datenmenge.

Andererseits formt das Modell Silben, Wörter und Sätze nach der Wahrscheinlichkeit, dass ein bestimmtes Wort auf ein anderes folgt. Wenn ChatGPT in einem Bereich kein Wissen hat, sagt es trotzdem das nächste Wort voraus und generiert eine Antwort, die wahr klingt und selbstbewusst und logisch wirkt. Nur dass die Antwort frei erfunden ist. Der Chatbot hat kein Verständnis für das, was er schreibt, das darf man nicht vergessen.

Der Bot "will" immer eine Antwort geben. Stellt man in einer Frage falsche Zusammenhänge her und der Bot erkennt die Fehler nicht, dann generiert er eine Antwort, die plausibel scheint, aber völlig falsch ist. Man kann der KI also Fakten unterschieben, die sie mit generierten Argumenten begründet, die tatsächlich frei erfunden sind. "Intelligent" geht anders. Der Grund dafür liegt darin, dass die KI trainiert wurde, menschliche Sprache zu generieren, also verhält sie sich so, wie Menschen sich auch verhalten. Wissen sie etwas nicht, drücken sie sich darum herum :)

Man sollte also niemals das eigene Hirn ausschalten und sich blind auf die Antworten verlassen. Zu oft hat das Sprachmodell bei meinen Recherchen nachweislich Blödsinn erzählt. Es entschuldigt sich dann zwar höflich für seine begrenzte Leistungsfähigkeit und dass es sich geirrt habe, aber eine richtige Antwort erhält man trotzdem nicht immer.

Dieses Verhalten des ChatGPT nennt man "halluzinieren". Das Modell generiert menschlich wirkende Sprache und legt den Fokus (noch) nicht auf korrekte Fakten. Es heißt "ChatGPT" und nicht "KnowledgeGPT".

In diesem Beispiel hat es auf Nachfrage seinen Fehler sofort korrigiert:

2. Quellenangaben nur auf Nachfrage

Bei Google kann man recht schnell nach der Seriosität der Webseite entscheiden, ob eine Antwort glaubwürdig ist. ChatGPT schreibt einfach Antworten, von denen man erst mal nicht weiß, woher sie stammen. Man kann zwar um Quellenangaben bitten und erhält auch welche, aber man muss aktiv danach fragen.

Allerdings halluziniert die KI leider auch in diesem Punkt. Ich habe es schon erlebt, dass ChatGPT eine Quelle oder Studie genannt hat, die bei meiner intensiven Überprüfung einfach nicht existierte. Ein besseres Tool für Quellen ist Perplexity.

3. Fehlerquelle bei ChatGPT: Sprachkuddelmuddel

ChatGPT wurde hauptsächlich mit englischsprachigen Daten trainiert. Wenn der Bot auf Deutsch verwendet wird, hat er weniger Daten, um sprachliche Muster, Fachbegriffe und Kontexte zu verstehen. Das führt dazu, dass er Zusammenhänge nicht so präzise erkennt und auf englische Daten oder Strukturen zurückgreift. Dadurch entstehen manchmal Fehler oder ungenaue Antworten, besonders bei komplexen oder sehr spezifischen Themen.

Bei wirklich wichtigen Themen empfehle ich, ChatGPT auf Englisch zu nutzen. Wie geht das ganz konkret, wenn man sich im Englischen weniger sicher fühlt? Schreiben Sie die Frage (den "Prompt") in DeepL und lassen Sie sich Ihre Fragen übersetzen. Die übersetzte Frage kopieren Sie in den ChatGPT. Die Antwort können Sie sich auf dieselbe Weise auf Deutsch in DeepL übersetzen lassen. Klingt umständlich, ist es aber nicht wirklich und man erhält bessere Ergebnisse, wenn es wirklich drauf ankommt.

4. Fallstrick bei ChatGPT: Es gibt keinen Datenschutz

Künstliche Intelligenz, Big Data und ein riesiges Sprachmodell auf der einen Seite, Datenschutzüberlegungen auf der anderen. 

Beide Seiten schließen sich aus. Es wird alles ausgewertet, was mit dem Chatbot geschrieben wird, das sollte man im Hinterkopf behalten. Also bitte niemals Fragen stellen zu sensiblen, privaten oder persönlichen Themen!

Man kann zwar in den Profileinstellungen von ChatGPT der Nutzung der eigenen Daten widersprechen. Trotzdem gibt es rein technisch mehrere Hintertürchen, aus denen die eigenen Daten verschwinden können.

5. Für Schüler:innen: Rückfall ins passive Lernen

Wir sind alle Menschen und unser Gehirn ist erst mal faul. Freundlich gesagt: Es befindet sich im Energiesparmodus. Das muss man sich bei der Nutzung des ChatGPT immer wieder vor Augen halten.

Schüler:innen geht es ganz genauso, kann man ihnen daraus einen Vorwurf machen? Effizient ist ausschließlich aktives Lernen. ChatGPT kann dabei eine große Hilfe sein, wenn es richtig eingesetzt wird.

Sie brauchen weiterhin menschliche Begleitung und Unterstützung beim Lernen. Idealerweise durch Aufgabenstellungen, die zum Zeitalter der KI passen. Hier ein Artikel, der effizientes Lernen mit ChatGPT beschreibt.

6. Fehlerquelle: Antworten bleiben unvollständig.

Wenn man eine komplexere Frage stellt oder eine längere Antwort wünscht, dann bricht ChatGPT auch mal mitten im Wort ab und es fehlen wesentliche Teile.

Der Grund dafür ist ganz simpel: Die Ausgabe ist begrenzt. Wie viele Wörter generiert werden, ist unter anderem abhängig von der Uhrzeit - schlafen die Menschen in den USA noch oder sind sie ebenfalls aktiv :)

In jedem Fall muss man bei einem Abbruch nicht wieder von vorne beginnen, sondern kann ChatGPT einfach bitten, die Antwort weiter zu schreiben. Prompts dafür sind:

  • weiter
  • fahre fort

Bittet man den Bot mit einer längeren Aufforderung, die Antwort zu ergänzen, dann führt er die Antwort nicht nahtlos weiter, sondern beschreibt zunächst nochmal ausführlich, welche Antwort er nun geben wird.

Ist die Antwort also unvollständig, dann liegt in der Kürze des Prompts die Würze.

Faktencheck: Wie kann man Fehler von ChatGPT verhindern?

Einerseits durch Mitdenken. Durch gesunden Menschenverstand. Bei wichtigen Themen immer doppelt prüfen.

Eine sehr bewährte Methode ist es, ChatGPT um Fragen zu einem Thema zu bitten. Man dreht damit den Spieß um: Nicht der Mensch stellt Fragen und die Maschine antwortet, sondern anders herum: ChatGPT stellt die Fragen und Menschen denken darüber nach und antworten. Die Maschine gibt dazu Feedback. Das senkt das Fehlerrisiko erheblich. Ein anderer willkommener Effekt ist, dass das kritische Denken gefördert wird. Das geht natürlich nicht, wenn man von ChatGPT Fakten wissen will. Auf Fakten von KI sollte man sich aber nie verlassen, weiter unten finden Sie weitere Beispiele dazu.

Es gibt eine ganz simple Möglichkeit, die Antworten des Bots zu prüfen: Man bittet ihn einfach darum oder verwendet ein anderes Sprachmodell, das mit anderen Daten trainiert ist und daher einen besseren Faktencheck liefert. Ich empfehle für diesen Zweck ClaudeGemini oder - am allerbesten: Perplexity. Claude ist viel stärker darauf trainiert, die eigenen Antworten faktisch zu prüfen als ChatGPT und bei Perplexity kann man zuverlässig die verwendeten Quellen prüfen.

Zauberwörter für einen kritisch nachfragenden Prompt lauten: 

  • Mach einen Faktencheck.
  • Oder: Nenne mir Studien, die deine Antwort belegen.
  • Oder: In welchen Quellen finden sich Belege dafür?

Ein Beispiel, wie ChatGPT sich in den Antworten verheddert

Hier zeige ich ein Beispiel, wie eine Behauptung aufgestellt wird, die sehr logisch und nachvollziehbar klingt und die dann doch in die Irre führt.

Ich hatte ChatGPT in der vorangegangenen Konversation nach Orten in Indien gefragt, die Marco Polo auf seinem Weg entlang der Seidenstraße besucht hat. Die KI hat daraufhin den Ort Kochi in Indien genannt. Ich hatte in Google Maps überprüft, wo dieser Ort liegt und dann versucht, Kochi in Marco Polos Buch "Il Milione" zu finden. ChatGPT beschreibt die Lage und Charakteristik der Stadt, obwohl Marco Polo diese Stadt tatsächlich weder erwähnt noch beschreibt.

Mehr Beispiele für falsche Antworten von ChatGPT

ChatGPT ist dafür optimiert, unsere menschliche Sprache zu simulieren. Das hat erst mal nichts mit Fakten zu tun, sondern nur mit Sätzen, die gut klingen. Egal mit welchem Inhalt. In einer ganz gewöhnlichen Unterhaltung mit der KI fällt das nicht weiter auf. Wenn Sie aber ChatGPT zu Fakten befragen, müssen Sie damit rechnen, dass Ihnen Ungenauigkeiten untergejubelt werden.

Hier ein Beispiel, dass ChatGPT nicht einmal sich selbst kennt:

Wenn wir uns mit einem Thema auskennen, dann bietet ChatGPT eine unersetzliche Hilfestellung. Schwierig wird es allerdings, wenn der Mensch nicht beurteilen kann, ob die KI Unfug ausgibt oder Fakten. Manchmal verbergen sich Verzerrungen oder falsche Behauptungen in Nebensätzen oder ganz unscheinbar mitten im Text.

Hier ein Beispiel dafür: 

Tatsächlich kam Arno Schmidt im April 1945 in ein britisches Kriegsgefangenenlager bei Brüssel. Das als "Anstellung" zu bezeichnen, ist schon mehr als kurios.

Bitte denken Sie daran, dass ChatGPT keine menschliche Fähigkeit besitzt, Fakten zu verstehen. Es handelt sich um eine Software, die mithilfe von Wahrscheinlichkeitsmodellen Wörter so zusammensetzt, dass sie wie sinnvolle Sätze erscheinen.

Dieser Artikel wurde mit freundlicher Mitwirkung von ChatGPT, Claude und Perplexity erstellt.

KI erfordert neue Denkgewohnheiten. 

Ein guter Umgang mit KI erfordert ein neues Denken. Wer klar formuliert, bekommt bessere Ergebnisse.
Weniger vage. Mehr präzise. Weniger implizit. Mehr auf den Punkt.

Wer klar denkt, nutzt KI erfolgreicher. Das lässt sich trainieren, auch mit Hilfe von KI :)
Die Denksplitter liefern regelmäßig kurze Impulse, damit Sie Künstliche Intelligenz als "dritte Gehirnhälfte" einsetzen.

Jetzt abonnieren.

Ich bin mit der Datenschutzerklärung einverstanden.

☝️

Weiter lesen:

KI als dritte Gehirnhälfte: Inspiration mit Denksplittern

Denksplitter für eine effiziente Nutzung von Künstlicher Intelligenz als Denkwerkzeug. Die Denksplitter kommen alle 14 Tage in Ihr Postfach geflattert. Ich gebe es zu: Ich habe richtig lange gebraucht, um mit der Idee, einen Newsletter zu verschicken, warm zu werden. Etliche Anläufe waren nötig. Mehrere Konzepte habe ich ausprobiert und wieder verworfen. Es gibt einfach zu

Read More

Albert Einstein und Indizien für Neurodiversität

Gibt es bei Albert Einstein Indizien für Neurodiversität? Am 17.04.2025 war Einsteins 70. Todestag. Er ist auch heute noch ein spannender Mensch. Weil er die Physik neu dachte und auch weil seine Denkweise uns inspirieren kann.Neurodivergentes Genie? Einstein neu betrachtetHat Einstein seine revolutionäre Ideen aufgrund seiner von der Norm abweichenden Denkfähigkeit entwickelt? Manche Menschen denken nicht

Read More

KI effizient nutzen beginnt mit klarem Denken

KI effizient nutzen beginnt im KopfKI kann uns viel Zeit sparen – wenn wir sie richtig einsetzen. Doch viele beginnen direkt mit einem Prompt, ohne sich vorher über Ziel, Intention oder Struktur Gedanken zu machen. Wer KI effizient nutzen will, muss vor dem Einsatz selbst denken. Das zeigt nicht nur die Praxis, sondern auch eine

Read More

System 0: KI als Denkhilfe

System 0: KI als Denkhilfe und Erweiterung unseres DenkensHaben Sie schon mal von System 0 gehört? Mit diesem Konzept können Sie KI als Denkhilfe einsetzen, denn Künstliche Intelligenz verändert nicht nur unsere Arbeitswelt – sie verändert fundamental die Art, wie wir denken und Probleme lösen. Zu diesem Zweck habe ich das Konzept der „dritten Gehirnhälfte“

Read More

Keine Panik, es ist nur KI

Keine Panik, es ist nur KIGrundprinzipien zur professionellen Nutzung von Text-KI für Neulinge und FortgeschritteneDas Buch unterstützt Menschen darin, Berührungsängste gegenüber KI abzubauen und die Potenziale besser zu verstehen. KI ist eine Querschnittstechnologie, die unser Leben ebenso tiefgreifend prägt wie Elektrizität oder das Internet.Grundprinzipien der KI-NutzungDie  besten Prompt-TechnikenVier Denkräume mit KIKI als dritte GehirnhälfteUnternehmensgründung Das

Read More