Halluzinationen
Was sind KI-Halluzinationen und wie können sie vermieden werden? Mehr zu diesem Thema finden Sie hier.
Was sind Halluzinationen?
Mögliche Ursachen
Halluzinationen resultieren aus der Funktionsweise generativer Modelle: Sie probabilisieren die nächste Ausgabe basierend auf erlernten Mustern, nicht auf echten Wissensabruf wie in einer Datenbank. Wenn eine Anfrage gestellt wird, zu der kein gelerntes Faktenwissen vorhanden ist, „halluziniert“ das Modell eine Antwort, die strukturell passt, aber inhaltlich falsch sein kann. Ursachen sind beispielsweise:
Beispiele und Risiken
Beispiel 1: Ein Sprachmodell wird nach einer Person gefragt, die nicht in den Trainingsdaten vorkommt. Es könnte eine Biografie zusammenstellen und etwa Auszeichnungen, Lebensdaten etc. frei erfinden.
Beispiel 2: Ein KI-System zur medizinischen Beratung „halluziniert“ eine nicht existierende Studie, um eine Empfehlung zu stützen, weil es die Frage nicht beantworten kann.
Solche Halluzinationen sind problematisch, weil Nutzer den KI-Antworten oft vertrauen. In kreativen Anwendungen (z. B. Geschichten schreiben) mögen erfundene Details unkritisch sein. Aber in wissenschaftlichen, medizinischen oder juristischen Kontexten können halluzinierte Fakten gravierende Fehlentscheidungen provozieren. Bekannt wurde etwa der Fall, in dem ein KI-Tool in einem juristischen Schriftsatz mehrere erfundene Gerichtsurteile anführte – ein klarer Schaden für die Glaubwürdigkeit des Anwalts.