Mainz (ots) - Millionen Menschen nutzen KI-Tools, um sich zu informieren. Doch
in 45 Prozent der Fälle geben KI-Assistenten Nachrichteninhalte fehlerhaft
wieder - unabhängig von Sprache, Region oder Plattform. Das zeigt die am
Mittwoch, 22. Oktober 2025, veröffentlichte Studie " News Integrity in AI
Assistants (https://www.ebu.ch/Report/MIS-BBC/NI_AI_2025.pdf) " der Europäischen
Rundfunkunion (EBU). Neben ARD und ZDF beteiligten sich öffentlich-rechtliche
Sender aus Frankreich, Kanada, Schweden, Spanien, den USA und anderen Ländern an
der internationalen Studie unter Federführung der BBC.
Zentrale Ergebnisse der Studie:
- 45 Prozent aller KI-Antworten wiesen mindestens einen erheblichen Fehler auf.
- 31 Prozent der Antworten zeigten gravierende Probleme bei den Quellenangaben.
- 20 Prozent enthielten deutliche Ungenauigkeiten, Halluzinationen oder
veraltete Informationen.
ZDF-Intendant Dr. Norbert Himmler: "Wir wollen die Informationsvermittlung im
KI-Zeitalter aktiv mitgestalten und sehen die Chancen der Technologie. Die
Studie belegt zugleich die Bedeutung öffentlich-rechtlicher
Informationsangebote. Dort finden die Menschen verlässliche Informationen und
journalistische Einordnung, die KI-Tools allein nicht leisten können. Die Studie
unterstreicht zudem die Notwendigkeit, die Qualität von KI-generierten Inhalten
kontinuierlich zu überprüfen."
Florian Hager, ARD Vorsitzender und hr-Intendant: "Wir sehen unsere Linie von
der Studie gestützt: Vertrauenswürdige Inhalte brauchen vertrauenswürdige
KI-Systeme. Die ARD hat explizit Interesse daran, dass unsere Inhalte auch über
KI für die Nutzenden zugänglich sind. Deshalb suchen wir aktiv das Gespräch mit
den Plattformen, um zu guten Kooperationsmodellen zu kommen, die einen
regulierten Zugang zu unseren Inhalten ermöglichen. Es braucht Mechanismen, die
falsche und missverständliche Informationen verhindern."
Nächste Schritte
Das Forschungsteam hat außerdem ein "Toolkit zur Genauigkeit bei KI-Assistenten"
veröffentlicht. Es enthält Vorschläge an die KI-Anbieter zur Verbesserung der
KI-Antworten und zur Förderung der Medienkompetenz bei Nutzerinnen und Nutzern.
Aufbauend auf den Ergebnissen der Studie geht es um die Fragen: "Was macht eine
gute KI-Antwort auf eine Nachrichtenfrage aus?" und "Welche Probleme müssen
behoben werden?"
Darüber hinaus fordern die EBU und ihre Mitglieder die EU und nationale
Regulierungsbehörden auf, bestehende Gesetze zur Informationsintegrität, zu
digitalen Diensten und zur Medienvielfalt konsequent durchzusetzen. Sie betonen,
dass eine fortlaufende unabhängige Überwachung von KI-Assistenten angesichts der
rasanten Entwicklung der Technologie unerlässlich ist, und prüfen Möglichkeiten
für eine kontinuierliche Forschung.
Über die Studie
Die Studie wird im Rahmen der EBU News Assembly in Neapel vorgestellt, beteiligt
waren 22 öffentlich-rechtliche Medienorganisationen aus 18 Ländern in 14
Sprachen. Über 3.000 KI-Antworten der KI-Assistenten ChatGPT, Copilot, Gemini
und Perplexity wurden von Journalistinnen und Journalisten anhand zentraler
Kriterien, darunter Genauigkeit, Quellenangaben, Unterscheidung zwischen Meinung
und Fakten sowie Bereitstellung von Kontext, geprüft.
Die Untersuchung baut auf einer BBC-Studie vom Februar 2025 auf und bestätigt,
dass die Probleme bei KI-generierten Nachrichteninhalten systematisch und
international verbreitet sind.
Weitere Informationen
Hier finden Sie die Studie: News Integrity in AI Assistants. An international
PSM study
Hier finden Sie das Toolkit: News Integrity in AI Assistants TOOLKIT
Kontakt
Sie erreichen die ZDF-Kommunikation per E-Mail unter pressedesk@zdf.de oder
telefonisch unter 06131 - 70-12108.
Sie erreichen die ARD-Kommunikation per E-Mail unter pressestelle@ARD.de
Pressekontakt:
ZDF-Kommunikation
pressedesk@zdf.de
Folgen Sie uns gerne auch bei LinkedIn (https://www.linkedin.com/company/zdf/).
Weiteres Material: http://presseportal.de/pm/7840/6142560
OTS: ZDF
|