Fehler, Fallstricke und Irrtümer von ChatGPT

Fehler von ChatGPT? Ist eine künstliche Intelligenz nicht unfehlbar? Mitnichten. Hier finden Sie die wichtigsten Fehlerquellen und Fallstricke, über die Sie bei der Nutzung von ChatGPT stolpern könnten.

Die KI ChatGPT liefert hervorragende Ergebnisse, wenn man gute Fragen stellt. Sie schreibt allerdings auch mit größter Selbstverständlichkeit Blödsinn. Zwar entschuldigt sie sich dann auf Nachfrage, aber man muss eben erst mal nachfragen. Wichtig ist also, die Antworten einem Faktencheck zu unterziehen.

Welche Fehler sind Ihnen bereits aufgefallen? Schreiben Sie sie in die Kommentare, denn dann können wir alle voneinander lernen.

1. Warum macht ChatGPT Fehler und man merkt es nicht?

ChatGPT hat einerseits Zugang zu einem unfassbar großen Textdatenbestand. Es wurde trainiert auf 45 Terabyte Textdaten! Das ist eine unvorstellbar große Datenmenge.

Andererseits formt das Modell Silben, Wörter und Sätze nach der Wahrscheinlichkeit, dass ein bestimmtes Wort auf ein anderes folgt. Wenn ChatGPT in einem Bereich kein Wissen hat, sagt es trotzdem das nächste Wort voraus und generiert eine Antwort, die wahr klingt und selbstbewusst und logisch wirkt. Nur dass die Antwort frei erfunden ist. Der Chatbot hat kein Verständnis für das, was er schreibt, das darf man nicht vergessen.

Der Bot "will" immer eine Antwort geben. Stellt man in einer Frage falsche Zusammenhänge her und der Bot erkennt die Fehler nicht, dann generiert er eine Antwort, die plausibel scheint, aber völlig falsch ist. Man kann der KI also Fakten unterschieben, die sie mit generierten Argumenten begründet, die tatsächlich frei erfunden sind. "Intelligent" geht anders. Der Grund dafür liegt darin, dass die KI trainiert wurde, menschliche Sprache zu generieren, also verhält sie sich so, wie Menschen sich auch verhalten. Wissen sie etwas nicht, drücken sie sich darum herum 🙂

Man sollte also niemals das eigene Hirn ausschalten und sich blind auf die Antworten verlassen. Zu oft hat das Sprachmodell bei meinen Recherchen nachweislich Blödsinn erzählt. Es entschuldigt sich dann zwar höflich für seine begrenzte Leistungsfähigkeit und dass es sich geirrt habe, aber eine richtige Antwort erhält man trotzdem nicht immer.

Dieses Verhalten des ChatGPT nennt man "halluzinieren". Das Modell generiert menschlich wirkende Sprache und legt den Fokus (noch) nicht auf korrekte Fakten. Es heißt "ChatGPT" und nicht "KnowledgeGPT".

In diesem Beispiel hat es auf Nachfrage seinen Fehler sofort korrigiert:

ChatGPT die besten Prompts Schüler

2. Quellenangaben nur auf Nachfrage

Bei Google kann man recht schnell nach der Seriosität der Webseite entscheiden, ob eine Antwort glaubwürdig ist. ChatGPT schreibt einfach Antworten, von denen man erst mal nicht weiß, woher sie stammen. Man kann zwar um Quellenangaben bitten und erhält auch welche, aber man muss aktiv danach fragen.

Allerdings halluziniert die KI leider auch in diesem Punkt. Ich habe es schon erlebt, dass ChatGPT eine Quelle oder Studie genannt hat, die bei meiner intensiven Überprüfung einfach nicht existierte.

3. Fehlerquelle bei ChatGPT: Übersetzung von Deutsch nach Englisch und zurück

Wenn man den Bot auf Deutsch benutzt, dann übersetzt er die Frage ins Englische, generiert die Antwort und übersetzt die dann wieder ins Deutsche zurück. Das kann zu Fehlern bei Begriffen führen oder zu eigenartigen Antworten.

Auch hier gilt, wie überall: Augen auf, Hirn an.

Bei wirklich wichtigen Themen empfehle ich, ChatGPT auf Englisch zu nutzen. Es ist auf Englisch trainiert und nicht so fehleranfällig wie auf Deutsch.

Wie geht das ganz konkret, wenn man sich im Englischen weniger sicher fühlt? Schreiben Sie die Frage (den "Prompt") in DeepL und lassen Sie sich Ihre Fragen übersetzen. Die übersetzte Frage kopieren Sie in den ChatGPT. Die Antwort können Sie sich auf dieselbe Weise auf Deutsch in DeepL übersetzen lassen. Klingt umständlich, ist es aber nicht wirklich und man erhält dafür bessere Ergebnisse.

Fallstricke beim Lernen mit KI

4. Fallstrick bei ChatGPT: Es gibt keinen Datenschutz

Künstliche Intelligenz, Big Data und ein riesiges Sprachmodell auf der einen Seite, Datenschutzüberlegungen auf der anderen. 

Beide Seiten schließen sich aus. Es wird alles ausgewertet, was mit dem Chatbot geschrieben wird, das sollte man im Hinterkopf behalten.

Also bitte niemals Fragen stellen zu sensiblen, privaten oder persönlichen Themen!

5. Für Schüler:innen: Rückfall ins passive Lernen

Wir sind alle Menschen und unser Gehirn ist erst mal faul. Freundlich gesagt: Es befindet sich im Energiesparmodus. Das muss man sich bei der Nutzung des ChatGPT immer wieder vor Augen halten.

Schüler:innen geht es ganz genauso, kann man ihnen daraus einen Vorwurf machen? Effizient ist ausschließlich aktives Lernen. ChatGPT kann dabei eine große Hilfe sein, wenn es richtig eingesetzt wird.

Sie brauchen weiterhin menschliche Begleitung und Unterstützung beim Lernen. Idealerweise durch Aufgabenstellungen, die zum Zeitalter der KI passen. Hier ein Artikel, der effizientes Lernen mit ChatGPT beschreibt.

6. Fehlerquelle: Antworten bleiben unvollständig.

Wenn man eine komplexere Frage stellt oder eine längere Antwort wünscht, dann bricht ChatGPT auch mal mitten im Wort ab und es fehlen wesentliche Teile.

Der Grund dafür ist ganz simpel: Die Ausgabe ist manchmal begrenzt auf 300 Wörter, manchmal bekommt man allerdings auch deutlich mehr Wörter geliefert. Das ist wohl abhängig von seiner Tagesform 🙂

In jedem Fall muss man bei einem Abbruch nicht wieder von vorne beginnen, sondern kann ChatGPT einfach bitten, die Antwort weiter zu schreiben. Prompts dafür sind:

  • weiter
  • fahre fort

Bittet man den Bot mit einer längeren Aufforderung, die Antwort zu ergänzen, dann führt er die Antwort nicht nahtlos weiter, sondern beschreibt zunächst nochmal ausführlich, welche Antwort er nun geben wird.

Ist die Antwort also unvollständig, dann liegt in der Kürze des Prompts die Würze.

Faktencheck: Wie kann man Fehler von ChatGPT verhindern?

Einerseits durch Mitdenken. Bei wichtigen Themen immer doppelt prüfen. Es gibt aber auch eine ganz simple Möglichkeit, die Antworten des Bots zu prüfen: Man bittet ihn einfach darum.

Zauberwörter für einen kritisch nachfragenden Prompt lauten: 

  • Mach einen Faktencheck.
  • Oder: Nenne mir Studien, die deine Antwort belegen.
  • Oder: In welchen Quellen finden sich Belege dafür?
Fehler von ChatGPT_Faktencheck

Ein Beispiel, wie ChatGPT sich in seinen Antworten verheddert

Hier zeige ich ein Beispiel, wie eine Behauptung aufgestellt wird, die sehr logisch und nachvollziehbar klingt und die dann doch in die Irre führt.

Ich hatte ChatGPT in der vorangegangenen Konversation nach Orten in Indien gefragt, die Marco Polo auf seinem Weg entlang der Seidenstraße besucht hat. Die KI hat daraufhin den Ort Kochi in Indien genannt. Ich hatte in Google Maps überprüft, wo dieser Ort liegt und dann versucht, Kochi in Marco Polos Buch "Il Milione" zu finden. ChatGPT beschreibt die Lage und Charakteristik der Stadt, obwohl Marco Polo diese Stadt tatsächlich weder erwähnt noch beschreibt.

Fehler von ChatGPT

Dieser Artikel wurde mit freundlicher Mitwirkung von ChatGPT erstellt.

Weiter lesen:

  • Nun habe ich schon mehrere Male die Frage an Chatgpt gestellt: Es gibt Primzahlen zwischen 1 und 1000. Diese 4 aufeinander folgenden Primzahlen haben einen Abstand von 6. Welche Primzahlen sind das?
    Antwort von Chatgpt:Die 4 aufeinander folgenden Primzahlen mit einem Abstand von 6 sind 5, 7, 11 und 13. ??????????
    Ich habe dies mehrfach berichtigt, dieses idiotische Chatgpt erkennt nicht einmal den Fehler.
    Ich dachte, Chatgpt wäre ein selbstlernendes System ?
    Mitnichten. Ich habe 4 Wochen späte dieselbe Frage nochmals gestellt.
    Immer noch falsche Antwort:
    Nachricht an die Programmierer von Chatgpt: Bitte berichtigt diesen Fehler und programmiert das tool so, dass es aus den Fehlern lernt.
    Danke

    • Hallo Siegfried, danke für diese spannende Frage! Der wichtigste Punkt, den ich klarstellen möchte ist: ChatGPT hat kein Wissen. Die KI kennt keine Fakten.
      Ja, das System ist selbstlernend, aber es ein System, das darauf optimiert wurde, menschenähnliche Sprache zu generieren.
      Wenn Sie ChatGPT etwas fragen und denken, Sie würden als Antwort Fakten erhalten, dann ist das leider nicht der Fall.
      Sie erhalten nur Wörter, die ChatGPT mit einer ermittelten Wahrscheinlichkeit aneinander reiht. Meistens wirken die Antworten so, als “wüsste” die KI, wovon sie spricht, so ist es aber nicht.

      Ich habe Ihre Frage mit einem anderen Tool überprüft, mit dem Code Interpreter der kostenpflichtigen Version von ChatGPT. Dieses Tool (und die Plugins, die zu diesem Zweck entwickelt wurden) kann weitaus mehr als ChatGPT.

      Dies ist die Antwort:
      “Um diese Frage zu beantworten, benötigen wir eine Liste aller Primzahlen zwischen 1 und 1000. Danach suchen wir nach aufeinanderfolgenden Primzahlen, bei denen der Abstand zwischen jeder dieser Primzahlen genau 6 beträgt.
      Ich werde zunächst die Primzahlen zwischen 1 und 1000 generieren und dann nach solchen aufeinanderfolgenden Primzahlen suchen.”
      Danach hat das System vor sich hin gerattert und schließlich kam die Antwort:
      “Die aufeinanderfolgenden Primzahlen zwischen 1 und 1000, die einen Abstand von 6 haben, sind:
      “251, 257, 263 und 269.”

  • {"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}
    >