Warum LLMs manchmal falsche Antworten liefern
Inhaltsverzeichnis
Warum halluzinieren Sprachmodelle? #
- Begrenztes Wissen: LLMs lernen aus großen Mengen an Texten, die bis zu einem bestimmten Zeitpunkt gesammelt wurden. Wenn sie nach etwas Aktuellem gefragt werden, können sie möglicherweise eine Antwort erfinden, statt zuzugeben: „Das weiß ich nicht“.
Beispiel: Fragst du nach dem „Präsidenten von Europa im Jahr 2025“, könnte das Modell einen Namen nennen – obwohl es dieses Amt gar nicht gibt. - Komplexität der Sprache: Sprache ist voller Mehrdeutigkeiten und Kontextabhängigkeiten. LLMs müssen diese Komplexität berücksichtigen, um passende Antworten zu bauen. Manchmal liegen sie jedoch daneben.
Beispiel: Wenn jemand nach dem „größten Tier der Welt“ fragt, antwortet das Modell vielleicht „Blauwal“ (richtig). Fragt man aber nach dem „größten Tier in Afrika“, könnte es fälschlich „Elefant“ nennen – obwohl der Blauwal auch dort im Meer lebt. - Mustererkennung: LLMs suchen in Texten nach Mustern, um passende Antworten zu bauen. Dabei können sie jedoch auch falsche Muster erkennen oder überbetonen.
Beispiel: Wenn in vielen Webtexten steht, dass „Tomaten Gemüse sind“ (obwohl sie botanisch Früchte sind), wiederholt das Modell diesen Fehler.
Oder es erfand eine Studie mit dem Titel „The Impact of Sleep on Productivity“ – inklusive erfundener Autor:innen –, weil solche Titel in echten Studien häufig vorkommen.
Wann passiert das besonders oft? #
- Bei Nischenthemen: Fragen zu extrem spezifischen Fakten (z. B. „Wie viele Goldmedaillen gewann Schwimmer X bei den Olympischen Spielen 1992?“) führen eher zu Fehlern, wenn die Daten selten sind.
- Bei kreativen Aufgaben: Wenn das Modell eine Geschichte erfinden oder ein Gedicht schreiben soll, mischt es oft reale und fiktive Elemente.
- Bei unklaren oder falschen Prämissen: Fragst du „Warum ist der Himmel 2070 grün?“, nimmt das Modell an, dass der Himmel 2070 tatsächlich grün ist – und erklärt es mit erfundenen Umweltgesetzen.
Was kann man dagegen tun? #
- Klare Fragen stellen: Vermeide Mehrdeutigkeiten. Statt „Wie heißt der größte Berg?“ frag besser: „Wie heißt der höchste Berg in Europa?“
- Quellen prüfen: Vertraue nie blind LLM-Antworten. Bei kritischen Fakten (z. B. medizinische Ratschläge) immer externe Quellen nutzen.
- Ehrlichkeit erzwingen: Moderne LLMs können so trainiert werden, unsichere Antworten mit „Ich weiß es nicht“ zu kennzeichnen.
- Aktualisierte Modelle: Einige Tools (wie ChatGPT mit Internetzugriff) können jetzt live nach Fakten suchen, um Halluzinationen zu reduzieren.