Halluzinationen

Was sind KI-Halluzinationen und wie können sie vermieden werden? Mehr zu diesem Thema finden Sie hier.

Was sind Halluzinationen?

In der KI bezeichnet man als Halluzinationen jene Fälle, in denen ein Modell scheinbar plausible, aber falsche oder nicht fundierte Ergebnisse erzeugt. Insbesondere große Sprachmodelle (LLMs) neigen dazu, Fakten zu erfinden, wenn sie keine gesicherten Informationen haben. Eine KI-Halluzination liegt also vor, wenn die KI-Ausgabe realistisch oder überzeugend klingt, aber sachlich falsch ist oder nicht mit den Eingabedaten übereinstimmt. Beispiel: Ein KI-Chatbot wird gefragt, wer 1823 Bundeskanzler war, und antwortet flüssig mit einem erfundenen Namen, obwohl es damals noch keinen Bundeskanzler gab.

Mögliche Ursachen

Halluzinationen resultieren aus der Funktionsweise generativer Modelle: Sie probabilisieren die nächste Ausgabe basierend auf erlernten Mustern, nicht auf echten Wissensabruf wie in einer Datenbank. Wenn eine Anfrage gestellt wird, zu der kein gelerntes Faktenwissen vorhanden ist, „halluziniert“ das Modell eine Antwort, die strukturell passt, aber inhaltlich falsch sein kann. Ursachen sind beispielsweise:

  • Datenlücken: Das Modell wurde nicht mit dem konkreten Faktum trainiert und rät daher.

  • Unsicherheit: LLMs haben kein eingebautes Wissen, wann sie irren. Sie generieren auch bei Unsicherheit einen Text, der überzeugt klingt (kein Bewusstsein über das eigene Nichtwissen).

  • Optimierung auf Form statt Inhalt: Die Trainingsziele belohnen kohärente und sprachlich korrekte Sätze, nicht faktische Richtigkeit. Das Modell lernt also, „gut zu klingen“.

  • Konversationsdruck: In Chatbot-Situationen wollen Modelle die Konversation voranbringen. Statt „Ich weiß nicht“ zu sagen – wozu sie nicht explizit erzogen wurden – liefern sie lieber irgendeine Antwort.

Beispiele und Risiken

Beispiel 1: Ein Sprachmodell wird nach einer Person gefragt, die nicht in den Trainingsdaten vorkommt. Es könnte eine Biografie zusammenstellen und etwa Auszeichnungen, Lebensdaten etc. frei erfinden.

Beispiel 2: Ein KI-System zur medizinischen Beratung „halluziniert“ eine nicht existierende Studie, um eine Empfehlung zu stützen, weil es die Frage nicht beantworten kann.

Solche Halluzinationen sind problematisch, weil Nutzer den KI-Antworten oft vertrauen. In kreativen Anwendungen (z. B. Geschichten schreiben) mögen erfundene Details unkritisch sein. Aber in wissenschaftlichen, medizinischen oder juristischen Kontexten können halluzinierte Fakten gravierende Fehlentscheidungen provozieren. Bekannt wurde etwa der Fall, in dem ein KI-Tool in einem juristischen Schriftsatz mehrere erfundene Gerichtsurteile anführte – ein klarer Schaden für die Glaubwürdigkeit des Anwalts.

Umgang mit Halluzinationen

Die Forschung arbeitet daran, Halluzinationen zu verringern. Ein Ansatz ist die Verwendung von Retrieval-Augmented Generation (RAG), wobei das Modell vor der Antwort externe Wissensquellen abfragt, um aktuelle und korrekte Infos einzubeziehen. Auch das Feintuning von Modellen auf Wahrheitsliebe (TruthfulQA etc.) oder der Einbau von Konfidenzbewertungen werden erprobt. In der Praxis gilt: Kritische KI-Anwendungen sollten überwacht werden – ein Mensch im Loop kann Halluzinationen erkennen und korrigieren. Nutzer sollten zudem sensibilisiert sein, KI-Antworten zu verifizieren, bevor sie wichtige Entscheidungen darauf stützen.
Zurück zur Übersicht