Fehler, Fallstricke und Irrtümer von ChatGPT

Fehler von ChatGPT? Ist eine künstliche Intelligenz nicht unfehlbar? Mitnichten. Hier finden Sie die wichtigsten Fehlerquellen und Fallstricke, über die Sie bei der Nutzung von ChatGPT stolpern könnten.

Die KI ChatGPT liefert hervorragende Ergebnisse, wenn man gute Fragen stellt. Sie schreibt allerdings auch mit größter Selbstverständlichkeit Blödsinn. Zwar entschuldigt sie sich dann auf Nachfrage, aber man muss eben erst mal nachfragen. Wichtig ist also, die Antworten einem Faktencheck zu unterziehen.

Welche Fehler sind Ihnen bereits aufgefallen? Schreiben Sie sie in die Kommentare, denn dann können wir alle voneinander lernen.

1. Warum macht ChatGPT Fehler und man merkt es nicht?

ChatGPT hat einerseits Zugang zu einem unfassbar großen Textdatenbestand. Es wurde trainiert auf 45 Terabyte Textdaten! Das ist eine unvorstellbar große Datenmenge.

Andererseits formt das Modell Silben, Wörter und Sätze nach der Wahrscheinlichkeit, dass ein bestimmtes Wort auf ein anderes folgt. Wenn ChatGPT in einem Bereich kein Wissen hat, sagt es trotzdem das nächste Wort voraus und generiert eine Antwort, die wahr klingt und selbstbewusst und logisch wirkt. Nur dass die Antwort frei erfunden ist. Der Chatbot hat kein Verständnis für das, was er schreibt, das darf man nicht vergessen.

Der Bot "will" immer eine Antwort geben. Stellt man in einer Frage falsche Zusammenhänge her und der Bot erkennt die Fehler nicht, dann generiert er eine Antwort, die plausibel scheint, aber völlig falsch ist. Man kann der KI also Fakten unterschieben, die sie mit generierten Argumenten begründet, die tatsächlich frei erfunden sind. "Intelligent" geht anders. Der Grund dafür liegt darin, dass die KI trainiert wurde, menschliche Sprache zu generieren, also verhält sie sich so, wie Menschen sich auch verhalten. Wissen sie etwas nicht, drücken sie sich darum herum 🙂

Man sollte also niemals das eigene Hirn ausschalten und sich blind auf die Antworten verlassen. Zu oft hat das Sprachmodell bei meinen Recherchen nachweislich Blödsinn erzählt. Es entschuldigt sich dann zwar höflich für seine begrenzte Leistungsfähigkeit und dass es sich geirrt habe, aber eine richtige Antwort erhält man trotzdem nicht immer.

Dieses Verhalten des ChatGPT nennt man "halluzinieren". Das Modell generiert menschlich wirkende Sprache und legt den Fokus (noch) nicht auf korrekte Fakten. Es heißt "ChatGPT" und nicht "KnowledgeGPT".

In diesem Beispiel hat es auf Nachfrage seinen Fehler sofort korrigiert:

Fehler von ChatGPT

2. Quellenangaben nur auf Nachfrage

Bei Google kann man recht schnell nach der Seriosität der Webseite entscheiden, ob eine Antwort glaubwürdig ist. ChatGPT schreibt einfach Antworten, von denen man erst mal nicht weiß, woher sie stammen. Man kann zwar um Quellenangaben bitten und erhält auch welche, aber man muss aktiv danach fragen.

Allerdings halluziniert die KI leider auch in diesem Punkt. Ich habe es schon erlebt, dass ChatGPT eine Quelle oder Studie genannt hat, die bei meiner intensiven Überprüfung einfach nicht existierte.

3. Fehlerquelle bei ChatGPT: Übersetzung von Deutsch nach Englisch und zurück

Wenn man den Bot auf Deutsch benutzt, dann übersetzt er die Frage ins Englische, generiert die Antwort und übersetzt die dann wieder ins Deutsche zurück. Das kann zu Fehlern bei Begriffen führen oder zu eigenartigen Antworten.

Auch hier gilt, wie überall: Augen auf, Hirn an.

Bei wirklich wichtigen Themen empfehle ich, ChatGPT auf Englisch zu nutzen. Es ist auf Englisch trainiert und nicht so fehleranfällig wie auf Deutsch.

Wie geht das ganz konkret, wenn man sich im Englischen weniger sicher fühlt? Schreiben Sie die Frage (den "Prompt") in DeepL und lassen Sie sich Ihre Fragen übersetzen. Die übersetzte Frage kopieren Sie in den ChatGPT. Die Antwort können Sie sich auf dieselbe Weise auf Deutsch in DeepL übersetzen lassen. Klingt umständlich, ist es aber nicht wirklich und man erhält dafür bessere Ergebnisse.

Fallstricke beim Lernen mit KI

4. Fallstrick bei ChatGPT: Es gibt keinen Datenschutz

Künstliche Intelligenz, Big Data und ein riesiges Sprachmodell auf der einen Seite, Datenschutzüberlegungen auf der anderen. 

Beide Seiten schließen sich aus. Es wird alles ausgewertet, was mit dem Chatbot geschrieben wird, das sollte man im Hinterkopf behalten.

Also bitte niemals Fragen stellen zu sensiblen, privaten oder persönlichen Themen!

5. Für Schüler:innen: Rückfall ins passive Lernen

Wir sind alle Menschen und unser Gehirn ist erst mal faul. Freundlich gesagt: Es befindet sich im Energiesparmodus. Das muss man sich bei der Nutzung des ChatGPT immer wieder vor Augen halten.

Schüler:innen geht es ganz genauso, kann man ihnen daraus einen Vorwurf machen? Effizient ist ausschließlich aktives Lernen. ChatGPT kann dabei eine große Hilfe sein, wenn es richtig eingesetzt wird.

Sie brauchen weiterhin menschliche Begleitung und Unterstützung beim Lernen. Idealerweise durch Aufgabenstellungen, die zum Zeitalter der KI passen. Hier ein Artikel, der effizientes Lernen mit ChatGPT beschreibt.

6. Fehlerquelle: Antworten bleiben unvollständig.

Wenn man eine komplexere Frage stellt oder eine längere Antwort wünscht, dann bricht ChatGPT auch mal mitten im Wort ab und es fehlen wesentliche Teile.

Der Grund dafür ist ganz simpel: Die Ausgabe ist manchmal begrenzt auf 300 Wörter, manchmal bekommt man allerdings auch deutlich mehr Wörter geliefert. Das ist wohl abhängig von seiner Tagesform 🙂

In jedem Fall muss man bei einem Abbruch nicht wieder von vorne beginnen, sondern kann ChatGPT einfach bitten, die Antwort weiter zu schreiben. Prompts dafür sind:

  • weiter
  • fahre fort

Bittet man den Bot mit einer längeren Aufforderung, die Antwort zu ergänzen, dann führt er die Antwort nicht nahtlos weiter, sondern beschreibt zunächst nochmal ausführlich, welche Antwort er nun geben wird.

Ist die Antwort also unvollständig, dann liegt in der Kürze des Prompts die Würze.

Faktencheck: Wie kann man Fehler von ChatGPT verhindern?

Einerseits durch Mitdenken. Bei wichtigen Themen immer doppelt prüfen. Es gibt aber auch eine ganz simple Möglichkeit, die Antworten des Bots zu prüfen: Man bittet ihn einfach darum.

Zauberwörter für einen kritisch nachfragenden Prompt lauten: 

  • Mach einen Faktencheck.
  • Oder: Nenne mir Studien, die deine Antwort belegen.
  • Oder: In welchen Quellen finden sich Belege dafür?
Fehler von ChatGPT_Faktencheck

Ein Beispiel, wie ChatGPT sich in seinen Antworten verheddert

Hier zeige ich ein Beispiel, wie eine Behauptung aufgestellt wird, die sehr logisch und nachvollziehbar klingt und die dann doch in die Irre führt.

Ich hatte ChatGPT in der vorangegangenen Konversation nach Orten in Indien gefragt, die Marco Polo auf seinem Weg entlang der Seidenstraße besucht hat. Die KI hat daraufhin den Ort Kochi in Indien genannt. Ich hatte in Google Maps überprüft, wo dieser Ort liegt und dann versucht, Kochi in Marco Polos Buch "Il Milione" zu finden. ChatGPT beschreibt die Lage und Charakteristik der Stadt, obwohl Marco Polo diese Stadt tatsächlich weder erwähnt noch beschreibt.

Fehler von ChatGPT

Dieser Artikel wurde mit freundlicher Mitwirkung von ChatGPT erstellt.

Weiter lesen:

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Schneller lesen, früher Feierabend

Jetzt ist es Zeit für mehr Leichtigkeit.

>