Fehler, Fallstricke und Irrtümer von ChatGPT

Fehler von ChatGPT? Ist eine künstliche Intelligenz nicht unfehlbar? Mitnichten. Hier finden Sie die wichtigsten Fehlerquellen und Fallstricke, über die Sie bei der Nutzung von ChatGPT stolpern könnten.

Die KI ChatGPT liefert hervorragende Ergebnisse, wenn man gute Fragen stellt. Sie schreibt allerdings auch mit größter Selbstverständlichkeit Blödsinn. Zwar entschuldigt sie sich dann auf Nachfrage, aber man muss eben erst mal nachfragen. Wichtig ist also, die Antworten einem Faktencheck zu unterziehen.

Welche Fehler sind Ihnen bereits aufgefallen? Schreiben Sie sie in die Kommentare, denn dann können wir alle voneinander lernen.

1. Warum macht ChatGPT Fehler und man merkt es nicht?

ChatGPT hat einerseits Zugang zu einem unfassbar großen Textdatenbestand. Es wurde trainiert auf 45 Terabyte Textdaten! Das ist eine unvorstellbar große Datenmenge.

Andererseits formt das Modell Silben, Wörter und Sätze nach der Wahrscheinlichkeit, dass ein bestimmtes Wort auf ein anderes folgt. Wenn ChatGPT in einem Bereich kein Wissen hat, sagt es trotzdem das nächste Wort voraus und generiert eine Antwort, die wahr klingt und selbstbewusst und logisch wirkt. Nur dass die Antwort frei erfunden ist. Der Chatbot hat kein Verständnis für das, was er schreibt, das darf man nicht vergessen.

Der Bot "will" immer eine Antwort geben. Stellt man in einer Frage falsche Zusammenhänge her und der Bot erkennt die Fehler nicht, dann generiert er eine Antwort, die plausibel scheint, aber völlig falsch ist. Man kann der KI also Fakten unterschieben, die sie mit generierten Argumenten begründet, die tatsächlich frei erfunden sind. "Intelligent" geht anders. Der Grund dafür liegt darin, dass die KI trainiert wurde, menschliche Sprache zu generieren, also verhält sie sich so, wie Menschen sich auch verhalten. Wissen sie etwas nicht, drücken sie sich darum herum 🙂

Man sollte also niemals das eigene Hirn ausschalten und sich blind auf die Antworten verlassen. Zu oft hat das Sprachmodell bei meinen Recherchen nachweislich Blödsinn erzählt. Es entschuldigt sich dann zwar höflich für seine begrenzte Leistungsfähigkeit und dass es sich geirrt habe, aber eine richtige Antwort erhält man trotzdem nicht immer.

Dieses Verhalten des ChatGPT nennt man "halluzinieren". Das Modell generiert menschlich wirkende Sprache und legt den Fokus (noch) nicht auf korrekte Fakten. Es heißt "ChatGPT" und nicht "KnowledgeGPT".

In diesem Beispiel hat es auf Nachfrage seinen Fehler sofort korrigiert:

ChatGPT die besten Prompts Schüler

2. Quellenangaben nur auf Nachfrage

Bei Google kann man recht schnell nach der Seriosität der Webseite entscheiden, ob eine Antwort glaubwürdig ist. ChatGPT schreibt einfach Antworten, von denen man erst mal nicht weiß, woher sie stammen. Man kann zwar um Quellenangaben bitten und erhält auch welche, aber man muss aktiv danach fragen.

Allerdings halluziniert die KI leider auch in diesem Punkt. Ich habe es schon erlebt, dass ChatGPT eine Quelle oder Studie genannt hat, die bei meiner intensiven Überprüfung einfach nicht existierte.

3. Fehlerquelle bei ChatGPT: Übersetzung von Deutsch nach Englisch und zurück

Wenn man den Bot auf Deutsch benutzt, dann übersetzt er die Frage ins Englische, generiert die Antwort und übersetzt die dann wieder ins Deutsche zurück. Das kann zu Fehlern bei Begriffen führen oder zu eigenartigen Antworten.

Auch hier gilt, wie überall: Augen auf, Hirn an.

Bei wirklich wichtigen Themen empfehle ich, ChatGPT auf Englisch zu nutzen. Es ist auf Englisch trainiert und nicht so fehleranfällig wie auf Deutsch.

Wie geht das ganz konkret, wenn man sich im Englischen weniger sicher fühlt? Schreiben Sie die Frage (den "Prompt") in DeepL und lassen Sie sich Ihre Fragen übersetzen. Die übersetzte Frage kopieren Sie in den ChatGPT. Die Antwort können Sie sich auf dieselbe Weise auf Deutsch in DeepL übersetzen lassen. Klingt umständlich, ist es aber nicht wirklich und man erhält dafür bessere Ergebnisse.

Fallstricke beim Lernen mit KI

4. Fallstrick bei ChatGPT: Es gibt keinen Datenschutz

Künstliche Intelligenz, Big Data und ein riesiges Sprachmodell auf der einen Seite, Datenschutzüberlegungen auf der anderen. 

Beide Seiten schließen sich aus. Es wird alles ausgewertet, was mit dem Chatbot geschrieben wird, das sollte man im Hinterkopf behalten.

Also bitte niemals Fragen stellen zu sensiblen, privaten oder persönlichen Themen!

5. Für Schüler:innen: Rückfall ins passive Lernen

Wir sind alle Menschen und unser Gehirn ist erst mal faul. Freundlich gesagt: Es befindet sich im Energiesparmodus. Das muss man sich bei der Nutzung des ChatGPT immer wieder vor Augen halten.

Schüler:innen geht es ganz genauso, kann man ihnen daraus einen Vorwurf machen? Effizient ist ausschließlich aktives Lernen. ChatGPT kann dabei eine große Hilfe sein, wenn es richtig eingesetzt wird.

Sie brauchen weiterhin menschliche Begleitung und Unterstützung beim Lernen. Idealerweise durch Aufgabenstellungen, die zum Zeitalter der KI passen. Hier ein Artikel, der effizientes Lernen mit ChatGPT beschreibt.

6. Fehlerquelle: Antworten bleiben unvollständig.

Wenn man eine komplexere Frage stellt oder eine längere Antwort wünscht, dann bricht ChatGPT auch mal mitten im Wort ab und es fehlen wesentliche Teile.

Der Grund dafür ist ganz simpel: Die Ausgabe ist manchmal begrenzt auf 300 Wörter, manchmal bekommt man allerdings auch deutlich mehr Wörter geliefert. Das ist wohl abhängig von seiner Tagesform 🙂

In jedem Fall muss man bei einem Abbruch nicht wieder von vorne beginnen, sondern kann ChatGPT einfach bitten, die Antwort weiter zu schreiben. Prompts dafür sind:

  • weiter
  • fahre fort

Bittet man den Bot mit einer längeren Aufforderung, die Antwort zu ergänzen, dann führt er die Antwort nicht nahtlos weiter, sondern beschreibt zunächst nochmal ausführlich, welche Antwort er nun geben wird.

Ist die Antwort also unvollständig, dann liegt in der Kürze des Prompts die Würze.

Faktencheck: Wie kann man Fehler von ChatGPT verhindern?

Einerseits durch Mitdenken. Bei wichtigen Themen immer doppelt prüfen. Es gibt aber auch eine ganz simple Möglichkeit, die Antworten des Bots zu prüfen: Man bittet ihn einfach darum.

Zauberwörter für einen kritisch nachfragenden Prompt lauten: 

  • Mach einen Faktencheck.
  • Oder: Nenne mir Studien, die deine Antwort belegen.
  • Oder: In welchen Quellen finden sich Belege dafür?
Fehler von ChatGPT_Faktencheck

Ein Beispiel, wie ChatGPT sich in seinen Antworten verheddert

Hier zeige ich ein Beispiel, wie eine Behauptung aufgestellt wird, die sehr logisch und nachvollziehbar klingt und die dann doch in die Irre führt.

Ich hatte ChatGPT in der vorangegangenen Konversation nach Orten in Indien gefragt, die Marco Polo auf seinem Weg entlang der Seidenstraße besucht hat. Die KI hat daraufhin den Ort Kochi in Indien genannt. Ich hatte in Google Maps überprüft, wo dieser Ort liegt und dann versucht, Kochi in Marco Polos Buch "Il Milione" zu finden. ChatGPT beschreibt die Lage und Charakteristik der Stadt, obwohl Marco Polo diese Stadt tatsächlich weder erwähnt noch beschreibt.

Fehler von ChatGPT

Dieser Artikel wurde mit freundlicher Mitwirkung von ChatGPT erstellt.

Weiter lesen:

  • Ich habe ChatGPT gebeten, den ungefähren Platzbedarf eines Modells des Sonnensystems zu berechnen, in dem die Erde einen Radius von 5 cm hat. Das erste Ergebnis war 190 cm. Der Hinweis darauf, das Ergebnis sei unrealistisch führte zu Neuberechnungen, die zunehmend absurder wurden und sich in Bereichen zwischen 3 mm u. 0,003 nm bewegten.(Ich habe ohne einen Anspruch auf Richtigkeit zu erheben, 71,35 m ausgerechnet). Das Sonnensystem wäre lt. ChatGPT kleiner als einer der darin enthaltenen Planeten.
    Rechenfehler können vorkommen, gerade bei höheren Zehnerpotenzen, da im Deutschen u. Englischen alles jenseits der „Million“ nicht mehr eindeutig ist. Hier liegt aber ein Logikfehler vor, den eine Intelligenz erkennen müsste.

    • Hallo Nevitah, ChatGPT ist ein Sprachmodell. Es wurde dafür optimiert, menschliche Sprache zu generieren. Für Rechenaufgaben ist das kostenlose Modell von ChatGPT (Version 3.5) einfach nicht geeignet. In der kostenpflichtigen Variante, dem Modell 4.0, hat man Zugang zu einem Rechentool (Advanced Data Analyser, früher Code Interpreter genannt), das diese Berechnung durchführen kann.
      Egal mit welchem KI-Tool man arbeitet: Es handelt sich bisher nur um sogenannte schwache künstliche Intelligenz, die für ganz spezifische Einsatzzwecke traininert wurde. Im Fall von ChatGPT ist das die Sprachausgabe. Die KI heißt zu Recht ChatGPT und nicht KnowledgeGPT oder ThinklogicGPT. Wir sind noch weit weg davon, dass KI-Modelle Logikaufgaben wie ein Mensch bewältigen kann.

      Fürs Rechnen gibt es übrigens andere Modelle, zum Beispiel gpt.wolfram.com. Dieses KI-Modell ist mit der kostenpflichtigen Version von OpenAI nutzbar. Zukünftig werden verschiedene KI-Modelle, die für unterschiedliche Zwecke trainiert wurden, zusammenarbeiten. Dann wird es für die User so aussehen, als würde ein Modell alles Mögliche beherrschen.

      In diesem Artikel ging es mir darum, die Fehler von ChatGPT darzustellen, die beim Generieren von Text geschehen können.

  • Ich wollte von ChatGPT ein Isogramm mit 9 Buchstaben haben. Alle Antworten waren falsch! Teilweise mehr als 9 buchstaben IMMER waren Buchstaben mehrfach vorhanden.

    • Hallo Thomas, ChatGPT ist ein Sprachmodell, das Wörter gemäß bestimmter Wahrscheinlichkeiten aneinanderreiht. Ein menschliches Wort wird von der KI als ein oder mehrere Token verarbeitet. Ein Token ist bei ChatGPT die kleinste Einheit, mit der jongliert wird. ChatGPT kann noch nicht mit Buchstaben umgehen, wie wir das tun. Es gibt aber ein anderes KI-Modell, das auf Bildgenerierung spezialisiert ist und einzelne Buchstaben etwas besser verarbeiten kann: ideogram.ai. Vielleicht hast Du damit mehr Glück 🙂

  • Nun habe ich schon mehrere Male die Frage an Chatgpt gestellt: Es gibt Primzahlen zwischen 1 und 1000. Diese 4 aufeinander folgenden Primzahlen haben einen Abstand von 6. Welche Primzahlen sind das?
    Antwort von Chatgpt:Die 4 aufeinander folgenden Primzahlen mit einem Abstand von 6 sind 5, 7, 11 und 13. ??????????
    Ich habe dies mehrfach berichtigt, dieses idiotische Chatgpt erkennt nicht einmal den Fehler.
    Ich dachte, Chatgpt wäre ein selbstlernendes System ?
    Mitnichten. Ich habe 4 Wochen späte dieselbe Frage nochmals gestellt.
    Immer noch falsche Antwort:
    Nachricht an die Programmierer von Chatgpt: Bitte berichtigt diesen Fehler und programmiert das tool so, dass es aus den Fehlern lernt.
    Danke

    • Hallo Siegfried, danke für diese spannende Frage! Der wichtigste Punkt, den ich klarstellen möchte ist: ChatGPT hat kein Wissen. Die KI kennt keine Fakten.
      Ja, das System ist selbstlernend, aber es ein System, das darauf optimiert wurde, menschenähnliche Sprache zu generieren.
      Wenn Sie ChatGPT etwas fragen und denken, Sie würden als Antwort Fakten erhalten, dann ist das leider nicht der Fall.
      Sie erhalten nur Wörter, die ChatGPT mit einer ermittelten Wahrscheinlichkeit aneinander reiht. Meistens wirken die Antworten so, als „wüsste“ die KI, wovon sie spricht, so ist es aber nicht.

      Ich habe Ihre Frage mit einem anderen Tool überprüft, mit dem Code Interpreter der kostenpflichtigen Version von ChatGPT. Dieses Tool (und die Plugins, die zu diesem Zweck entwickelt wurden) kann weitaus mehr als ChatGPT.

      Dies ist die Antwort:
      „Um diese Frage zu beantworten, benötigen wir eine Liste aller Primzahlen zwischen 1 und 1000. Danach suchen wir nach aufeinanderfolgenden Primzahlen, bei denen der Abstand zwischen jeder dieser Primzahlen genau 6 beträgt.
      Ich werde zunächst die Primzahlen zwischen 1 und 1000 generieren und dann nach solchen aufeinanderfolgenden Primzahlen suchen.“
      Danach hat das System vor sich hin gerattert und schließlich kam die Antwort:
      „Die aufeinanderfolgenden Primzahlen zwischen 1 und 1000, die einen Abstand von 6 haben, sind:
      „251, 257, 263 und 269.“

  • {"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}
    00:00
    00:00
    >