Artikel teilen:

Studie: KI-Suche bei Nachrichten oft fehlerhaft

Laut einer Studie geben KI-Assistenten Nachrichteninhalte häufig fehlerhaft wieder. Knapp die Hälfte der untersuchten KI-Antworten enthielt unabhängig von Land und Sprache mindestens einen gravierenden Fehler.

Künstliche Intelligenz (KI) wird auch bei der Suche nach aktuellen Nachrichten und Informationen immer wichtiger. Allerdings geben KI-Assistenten Nachrichteninhalte offenbar häufig fehlerhaft wieder. Laut einer aktuellen Studie der Europäischen Rundfunkunion (European Broadcsting Union, EBU) enthalten 45 Prozent aller KI-Antworten unabhängig von Sprache, Region oder Plattform mindestens einen erheblichen Fehler.

Die EBU, ein Zusammenschluss von meist öffentlich-rechtlichen Sendern, hatte unter Federführung der BBC über 3.000 KI-Antworten von KI-Assistenten wie ChatGPT, Copilot, Gemini und Perplexity aus 18 Ländern und in 14 Sprachen untersuchen lassen. Die Ergebnisse wurden anhand journalistischer Kriterien wie Genauigkeit, Quellenangaben, Unterscheidung zwischen Meinung und Fakten sowie der Bereitstellung von Kontext geprüft.

Demnach zeigten fast ein Drittel der Antworten (31 Prozent) auch gravierende Probleme bei den Quellenangaben. Jede fünfte Antwort enthielt zudem KI-Halluzinationen, veraltete Informationen oder andere “deutliche Ungenauigkeiten”, wie die Studie festhält.

An der Untersuchung mit dem Titel “News Integrity in AI-Assistants” (Nachrichten-Integretät von KI-Assistenten) waren auch die ARD und das ZDF beteiligt. “Wir sehen unsere Linie von der Studie gestützt: Vertrauenswürdige Inhalte brauchen vertrauenswürdige KI-Systeme”, sagte der ARD-Vorsitzende Florian Hager. Da die ARD “explizit Interesse” daran habe, dass ihre Inhalte auch über KI zugänglich seien, werde man jetzt “das Gespräch mit den Plattformen suchen, um zu guten Kooperationsmodellen zu kommen, die falsche und missverständliche Informationen verhindern”.

ZDF-Intendant Norbert Himmler sieht in den Ergebnissen zudem einen Beleg für die Bedeutung öffentlich-rechtlicher Informationsangebote. “Dort finden die Menschen verlässliche Informationen und journalistische Einordnung, die KI-Tools allein nicht leisten können.”