Neue Studie enthüllt massive Fehler bei KI-Systemen

Von Karin Gutmann
studie-warnt-künstliche-intelligenz-erfindet-fakten

Eine aktuelle Untersuchung der Europäischen Rundfunkunion (EBU) wirft ein kritisches Licht auf den Umgang mit künstlicher Intelligenz im Alltag. Die Ergebnisse zeigen, dass bekannte KI-Chatbots wie ChatGPT, Gemini, Claude oder Microsoft Copilot in bis zu vier von zehn Fällen falsche Informationen liefern – häufig in einer Art und Weise, die für Laien kaum als Fehler zu erkennen ist.

Chatbots erfinden Fakten mit erstaunlicher Überzeugungskraft

Im Rahmen der Studie wurden über 68 Rundfunkanstalten aus 56 Ländern beteiligt, die systematisch die Verlässlichkeit gängiger KI-Anwendungen überprüften. Dabei fiel auf, dass die Programme nicht nur fehlerhafte Angaben machen, sondern oft auch vollständig erfundene Quellen nennen, um Glaubwürdigkeit zu erzeugen.

Die Beispiele reichen von simplen Irrtümern bis zu gravierenden Falschmeldungen: So erklärte ein Chatbot, Papst Franziskus sei verstorben, während ein anderer behauptete, Schweden sei kein NATO-Mitglied. Selbst bei politischen Themen entstehen absurde Verzerrungen – etwa, wenn Google Gemini die Wiederwahl von Donald Trump als „zukünftiges Ereignis“ beschreibt, obwohl diese längst erfolgt ist.

Die Systeme sind rhetorisch überzeugend, aber sachlich unzuverlässig“, sagt Professor Peter Posch von der Technischen Universität Dortmund. „Gerade unerfahrene Nutzer können kaum unterscheiden, was echt und was erfunden ist.

Das Phänomen, das Fachleute als „Halluzination“ bezeichnen, beschreibt die Fähigkeit von KI-Systemen, frei erfundene Inhalte zu generieren, die logisch klingen, aber keine Grundlage in der Realität haben.

Wenn Maschinen die Wahrheit beugen

Die zunehmende Nutzung von Chatbots als Informationsquelle birgt erhebliche gesellschaftliche Risiken. Immer mehr Menschen beziehen ihre Nachrichten direkt von KI-Systemen, ohne die Angaben zu überprüfen. Dadurch verbreiten sich Desinformationen rasant – in sozialen Medien, in Schulen und sogar im öffentlichen Diskurs.

Viele Nutzer glauben, dass Künstliche Intelligenz objektiv arbeitet und keine Fehler macht. Dieser Irrglaube führt dazu, dass erfundene Inhalte unreflektiert weitergegeben werden. „KI hat keine Moral, kein Wissen und kein Bewusstsein – sie kombiniert nur Wahrscheinlichkeiten“, warnen Experten.

Schüler übernehmen fehlerhafte Inhalte in Schulaufsätze, Studierende zitieren unzuverlässige Quellen, und Bürger fällen politische Entscheidungen auf Basis unzutreffender Aussagen. So wird eine Technologie, die eigentlich Wissen vermitteln soll, zunehmend zum Katalysator für Verwirrung und Manipulation.

Seriöse Medien verlieren an Vertrauen

Besonders problematisch ist, dass Chatbots immer wieder behaupten, ihre Informationen stammten von ARD, ZDF oder anderen anerkannten Nachrichtenquellen – obwohl diese nie entsprechende Berichte veröffentlicht haben. Dadurch untergraben KI-Systeme das Vertrauen in den seriösen Journalismus.

Die EBU untersuchte hunderte von Fragen aus Bereichen wie Geschichte, Wissenschaft und aktuelle Politik. Keine der getesteten KIs konnte durchgehend korrekte Antworten liefern. Die Fehlerquoten schwankten zwischen 15 und 40 Prozent, je nach Themengebiet.

Für Medienhäuser ist das ein wachsendes Problem: Wenn Falschmeldungen im Namen renommierter Sender verbreitet werden, gerät ihre Glaubwürdigkeit in Gefahr – ein Risiko, das durch den unkontrollierten Einsatz von KI noch zunimmt.

Die Ursache liegt in der Technik

Der Grund für die hohe Fehlerquote ist strukturell: KI-Chatbots verstehen keine Inhalte, sondern berechnen nur, welche Wörter wahrscheinlich zueinander passen. Sie bilden Sprachmuster ab, aber kein tatsächliches Wissen.

KI kann nicht denken, sie kann nur schätzen“, erklären Fachleute. Dadurch entstehen Aussagen, die zwar plausibel klingen, aber keinerlei Faktenbasis haben. Die großen Tech-Konzerne versuchen, das Problem durch bessere Trainingsdaten und automatische Faktenprüfung zu mildern, doch die sogenannten Halluzinationen bleiben eine grundsätzliche Schwäche der Technologie.

Trotz Milliardeninvestitionen in Entwicklung und Optimierung können Chatbots bisher nicht zuverlässig zwischen Wahrheit und Fiktion unterscheiden.

Vorsicht im Umgang mit KI-Systemen

Die Europäische Rundfunkunion empfiehlt daher einen bewussten und kritischen Umgang mit KI-Anwendungen. Nutzer sollten wichtige Informationen immer verifizieren, anstatt sich ausschließlich auf Chatbots zu verlassen. Für Nachrichten, politische Entscheidungen oder medizinische Ratschläge seien journalistisch geprüfte Quellen unverzichtbar.

In Schulen und Hochschulen müsse zudem stärker auf digitale Bildung und Medienkompetenz gesetzt werden. Schüler und Studierende sollen lernen, KI-generierte Inhalte zu hinterfragen und den Wahrheitsgehalt zu prüfen.

Auch Regierungen reagieren: Die Bundesregierung plant Kampagnen zur Aufklärung über die Risiken künstlicher Intelligenz. Doch viele Experten warnen, dass diese Maßnahmen zu spät kommen – denn Millionen Menschen nutzen die Systeme längst täglich, ohne die Gefahren zu kennen.Bis sich die Technologie weiterentwickelt, gilt: KI ist ein nützliches Werkzeug für kreative Aufgaben, nicht aber für die Wahrheitssuche. Wer sich seriös informieren will, sollte auf menschlich geprüfte Nachrichtenquellen setzen, die Verantwortung übernehmen und Fakten verifizieren.

DAS KÖNNTE SIE AUCH INTERESSIEREN

Über uns

RMK Marketing Inc.
41 Lana Terrace, Mississauga, Ontario L5A 3B2, Kanada​

Besondere Beiträge

© Copyright 2024 Borse Market. All Rights Reserved.