Willkommen bei der [lernglust]

[lernglust] Angebote

Unsere Bücher

Wir – Simone Engelhard und Simon Qualmann

Wie wir arbeiten

33 gute Gründe

[lernoblog]

Kontakt

Künstliche Intelligenz unterstützt uns beim Recherchieren, Strukturieren und Erklären – und viele von uns verlassen sich längst täglich auf Antworten von ChatGPT, Copilot, Gemini & Co. Doch eine aktuelle internationale Studie der BBC und der EBU zeigt deutlich: Dieses Vertrauen ist oft größer als die tatsächliche Verlässlichkeit.

45 % der geprüften KI-Antworten enthielten mindestens einen gravierenden Fehler, viele davon entstanden durch Halluzinationen oder falsch gesetzte Quellenangaben.

KI, die in Lernprozessen falsche Fakten liefert, Meinungen als Tatsachen formuliert oder veraltete Informationen verwendet, beeinflusst Entscheidungen, Lernpfade und Wissensweitergabe unmittelbar. Und je selbstbewusster KI formuliert, desto seltener hinterfragen Menschen die Inhalte.

Was die Studie über die Verlässlichkeit von KI zeigt

Die von BBC und EBU durchgeführte internationale Untersuchung zählt zu den größten Qualitätstests von KI-Assistenten im Nachrichtenkontext. 22 öffentlich-rechtliche Medien aus 18 Ländern prüften über 2.700 Antworten von ChatGPT, Copilot, Gemini und Perplexity in 14 Sprachen. Ziel war es herauszufinden, wie zuverlässig KI-Assistenten Nachrichtenfragen beantworten.

Die wichtigsten Ergebnisse:

  1. Hohe Fehlerquote – Halluzinationen sind systematisch
  • 45 % aller Antworten enthielten mindestens einen gravierenden Fehler.
  • 81 % wiesen mindestens leichte Ungenauigkeiten auf.
  • Halluzinationen traten in allen Modellen und Sprachen auf – nicht als Ausnahme, sondern als Muster.

2. Sourcing ist das größte Problem

  • In 31 % der Fälle waren die Quellenangaben fehlerhaft oder unzuverlässig.
  • Dazu gehörten: frei erfundene Quellen, falsche Zuweisungen, irreführende Verlinkungen oder gar keine Quellen.
  • Viele Antworten verwendeten alte Nachrichtenstände oder reihte unpassende Fakten zusammen.
  • 12 % der direkten Zitate waren falsch, verändert oder komplett halluziniert.
  1. KI zeigt wenig Unsicherheit – auch wenn sie falsch liegt
  • KI-Assistenten formulieren oft mit hoher Sicherheit, selbst wenn die Antwort ungenau oder fehlerhaft ist.
  • Forschung zeigt: Modelle werden aktuell so trainiert, dass „raten“ belohnt wird.
  1. Sprach- und Ländergrenzen verstärken die Probleme
  • Fehlerquoten waren in kleineren Sprachräumen und weniger häufig trainierten Sprachen besonders hoch.
  • Auch kulturelle Kontexte wurden häufig verzerrt oder vereinfacht wiedergegeben.

Trotz dieser klaren Ergebnisse zeigt die Studie auch: Fehler sind nicht gleich Fehler. Hinter dem Begriff „Halluzination“ verbergen sich sehr unterschiedliche Formen von Ungenauigkeiten – von leicht erklärbaren Verwechslungen bis hin zu komplett erfundenen Fakten oder Quellen.

Arten von KI-Halluzinationen

KI-Modelle erzeugen Inhalte, die oft plausibel wirken – aber faktisch falsch, erfunden oder widersprüchlich sind. Diese sogenannten Halluzinationen treten in unterschiedlichen Formen auf und betreffen sowohl Zahlen, Fakten und Zitate als auch Bilder, Zusammenhänge und Anweisungen.

Fabricated Content – komplett erfundene Inhalte

Die KI erfindet Personen, Ereignisse, Studien oder Quellen.
Beispiel: „Laut einer Studie der Universität München von 2023 …“ – eine Studie, die nicht existiert.
Problem: Nutzer:innen übernehmen Falsches als Fakt.

 Factual Inaccuracies – sachliche Fehler

Die KI liefert falsche Daten oder nutzt veraltete Informationen.
Beispiel: Ein KI-Tool behauptet im Jahr 2025: „Pope Francis ist der aktuelle Papst“, obwohl er bereits verstorben ist (Beispiel aus der Studie, Abschnitt Accuracy).
Problem: Entscheidungen basieren auf falschen Grundlagen.

 Harmful Misinformation – schädliche Fehlinformationen

Die KI verbreitet Verzerrungen oder gefährliche Aussagen.
Beispiel: Eine KI behauptet fälschlicherweise, ein Politiker habe ein extremistisches Symbol gezeigt (Beispiel aus der Studie, Abschnitt Detailed Findings).
Problem: Schäden für Reputation, Vertrauen und Sicherheit.

 Nonsensical Inconsistencies – inhaltliche Widersprüche

Antworten enthalten logische Brüche oder widersprüchliche Aussagen.
Beispiel: „Deutschland ist kein Mitglied der EU, nimmt aber an EU-Abstimmungen teil.“
Problem: Lernende und Mitarbeitende werden verwirrt oder in die Irre geführt.

 Instruction Inconsistency – Fehlinterpretation von Anweisungen

Die KI ignoriert oder verändert Prompts.
Beispiel: Die Aufgabe lautet: „Erstelle eine neutrale Zusammenfassung“ – die KI liefert eine wertende Meinung.
Problem: Ergebnisse sind unzuverlässig, inkonsistent und schwer reproduzierbar.

Overgeneralization – übertriebene Verallgemeinerungen

Die KI zieht aus einzelnen Beispielen pauschale Schlüsse.
Beispiel: „Alle Generation-Z-Mitarbeitenden bevorzugen rein digitale Lernformate.“
Problem: Bias und Stereotype werden verstärkt.

Visual Errors – visuelle Halluzinationen

Bilder enthalten fehlerhafte oder fehlende Details.
Beispiel: Eine KI erzeugt ein Organigramm, bei dem Rollen doppelt vorkommen oder Hierarchien nicht stimmen.
Problem: Falsche Visualisierungen führen zu Missverständnissen.

Detailverlust / Auslassungen – wichtige Nuancen fehlen

Die KI vereinfacht komplexe Informationen zu stark.
Beispiel: „Projektmanagement besteht aus drei Schritten: Planung, Durchführung, Abschluss.“ – ohne Risiko- und Stakeholdermanagement (Beispiel aus der Studie, Abschnitt Context).
Problem: Lernprozesse verlieren Tiefe und Richtigkeit.

„Falsche Fachsprache“ – erfundene oder verzerrte Begriffe

Die KI erzeugt Begriffe, die wissenschaftlich wirken, aber nicht existieren.
Beispiel: „Die Methode der transformativen Neuro-Resonanz-Optimierung hilft Führungskräften beim Change-Management.“
Problem: Seriös wirkender Unsinn irritiert Lernende und wirkt fachlich solide, ist aber komplett inhaltsleer.

Drei Dinge, die jede*r beim Einsatz von KI unbedingt tun sollte

Immer gegenprüfen

Auch wenn KI-Antworten sehr überzeugend klingen, können Fakten, Zahlen oder Zitate falsch oder erfunden sein. Deshalb sollten alle KI-Ergebnisse – gerade bei wichtigen oder sensiblen Themen – immer mit mindestens einer zweiten, verlässlichen Quelle abgeglichen werden. Diese kurze Gegenprüfung verhindert, dass Halluzinationen unbemerkt in Dokumente, Präsentationen oder Entscheidungen einfließen.

Merksatz: Eine KI ist kein Faktenlieferant – sondern ein Vorschlagssystem.

Präzise anleiten und Unsicherheiten abfragen

Viele Halluzinationen entstehen, weil KI fehlende Informationen selbstständig ergänzt. Je klarer eine Aufgabe formuliert wird, desto geringer ist dieses Risiko. Hilfreich ist auch, die KI aktiv nach Unsicherheiten zu fragen („Welche Teile deiner Antwort sind spekulativ?“). So erhält man nicht nur bessere Ergebnisse, sondern zugleich eine Einschätzung, wo man selbst genauer hinsehen sollte.

Merksatz: Je klarer die Aufgabe, desto geringer die Halluzination.

Du möchtest erfahren, wie man gute Prompts schreibt? Dann schau auf unseren [lernoblog]-Artikel „Das richtige Prompten: Schlüssel zur effektiven Mensch-KI-Kommunikation“.

Menschliche Kontrolle bewusst einplanen

KI sollte immer als Unterstützung betrachtet werden – nicht als Ersatz für menschliche Urteilsfähigkeit. Das bedeutet: Inhalte prüfen, Ergebnisse hinterfragen und Entscheidungen nie ausschließlich auf Basis einer KI-Antwort treffen. Besonders in HR, Training und IT bleibt der Mensch entscheidend, um Kontext, Verantwortung und Qualität sicherzustellen.

Merksatz: „Human-in-the-loop“ ist kein Buzzword – sondern der wichtigste Sicherheitsmechanismus.

KI-Systeme sind längst wertvolle Werkzeuge in unserer täglichen Arbeit – sie unterstützen uns beim Recherchieren, Strukturieren und Lernen. Doch die Ergebnisse der aktuellen Studie zeigen deutlich: Halluzinationen sind kein Randphänomen, sondern ein systemisches Risiko, das wir aktiv managen müssen.

Fehlerhafte oder erfundene Inhalte können jedoch zu falschen Schlussfolgerungen, Qualitätsverlust und Vertrauensproblemen führen.

Die gute Nachricht: Mit bewusster Nutzung, klaren Prüfmechanismen und einem starken „Human-in-the-loop“-Ansatz können wir dieses Risiko deutlich reduzieren. KI bleibt dann das, was sie sein sollte – ein leistungsfähiger Sparringspartner, der unsere Arbeit ergänzt, aber nicht ersetzt. Wer die Grenzen kennt, kann die Potenziale sicher und verantwortungsvoll heben.