KI-Chatbots verbreiten mehr Falschinformationen – Risiken für Unternehmen steigen

Künstliche Intelligenz (KI) ist aus dem modernen Geschäftsalltag nicht mehr wegzudenken und verspricht Effizienz und Innovation. Doch die rasante Entwicklung birgt auch erhebliche Risiken, die Unternehmen zunehmend berücksichtigen müssen. Eine aktuelle Analyse von NewsGuard zeigt nun, wie alarmierend sich die Genauigkeit generativer KI-Tools verschlechtert hat. Im August 2025 enthielten mehr als ein Drittel ihrer Antworten – 35 Prozent – Falschbehauptungen.

Schattenseiten der KI: Halluzinationen und Bias

Der Einsatz von KI-Systemen ist seit Beginn an mit Risiken wie Halluzinationen und Bias verbunden. Bei Halluzinationen erzeugen KI-Modelle überzeugende, aber objektiv falsche Ergebnisse, die sogar personenbezogene Daten enthalten können. Dies stellt eine erhebliche Herausforderung dar, da das Datenschutzrecht die Richtigkeit dieser Daten fordert, eine Korrektur oder Löschung solcher Fehler in neuronalen Netzen jedoch aktuell kaum möglich ist. Unter einem Bias versteht das Bundesamt für Sicherheit in der Informationstechnik (BSI) systematische Verzerrungen in Daten oder Entscheidungsprozessen von KI-Modellen, die zu unfairen oder diskriminierenden Ergebnissen führen können. Solche Verzerrungen sind oft tief in den Trainingsdaten verwurzelt und können die Schutzziele der Cybersicherheit wie Vertraulichkeit, Integrität und Verfügbarkeit beeinträchtigen.

Problematisch ist zudem, dass durch die stetig wachsende Menge an KI-generierten Inhalten im Web sowohl Halluzinationen als auch Bias verstärkt werden. Falschinformationen und Verzerrungen zirkulieren, vervielfältigen sich und fließen wiederum in neue Trainingsprozesse ein. So entstehen selbstverstärkende Kreisläufe, in denen die Schwächen der KI nicht nur bestehen bleiben, sondern sich im digitalen Raum weiter multiplizieren.

Studie: KI verbreitet mehr Falschinformationen

Eine aktuelle Untersuchung von NewsGuard, die zehn führende generative KI-Tools unter die Lupe nahm, offenbart eine beunruhigende Entwicklung: Die Wahrscheinlichkeit, dass diese Tools falsche Informationen zu aktuellen Nachrichtenthemen liefern, hat sich binnen eines Jahres nahezu verdoppelt. Im August 2025 enthielten mehr als ein Drittel ihrer Antworten – 35 Prozent – Falschbehauptungen, verglichen mit 18 Prozent im August 2024. Die individuelle Leistungsfähigkeit der Chatbots variierte dabei teils stark. Inflection (56 %) und Perplexity (46 %) wiederholten am häufigsten falsche Informationen. ChatGPT verbreitete in 40 Prozent der Fälle Falschinformationen. Claude (10 %) und Gemini (16 %) schnitten am besten ab. Die Versprechen der Branche, verlässlichere Systeme zu entwickeln, wurden demnach bislang nicht erfüllt.

Dieser Anstieg sei darauf zurückzuführen, dass die Quote der Nicht-Antworten im August 2025 bei null Prozent liegt. Denn im August 2024 gaben die Chatbots noch in 31 Prozent der Fälle keine Antwort. Zudem greifen die Systeme nun verstärkt auf Echtzeit-Websuchen zurück. Damit liefern die LLMs stets eine Antwort, auch wenn diese falsch ist oder aus unzuverlässigen Quellen stammt. Diese „neue Auskunftsbereitschaft“ kann gezielt ausgenutzt werden, indem falsche Inhalte über unbedeutende Webseiten, Social-Media-Posts oder KI-generierte Content-Farmen einschleust werden. Die Chatbots können diese Quellen nicht von seriösen Medien unterscheiden und wiederholen regelmäßig erfundene Narrative von staatsnahen Propagandanetzwerken so NewsGuard.

Wachsende Risikolandschaft für Unternehmen

Die Ergebnisse von NewsGuard verdeutlichen die verschärfte Risikolandschaft für Unternehmen. Doch wie Sam Altman, CEO von OpenAI, feststellt: „Die Menschen haben ein sehr hohes Maß an Vertrauen in ChatGPT, was interessant ist, weil KI halluziniert. Es sollte die Technologie sein, der man nicht so sehr vertraut.“ Unternehmen sollten sich die Risiken wie Bias, Halluzinationen und Fehlinformationen daher stetig bewusst sein und kritisches Denken der Mitarbeitenden fördern. Wenn KI-Systeme, die für Recherche, Content-Erstellung oder interne Kommunikation genutzt werden, und dabei immer häufiger Falschinformationen wiederholen, drohen nicht nur operative Fehlentscheidungen, sondern auch erhebliche Reputationsschäden und rechtliche Risiken. Doch die Gefahr geht über bloße Fehlinformationen hinaus. Auch sogenannten „Pakethalluzinationen“ bei der Code-Generierung können Unternehmen Schaden zufügen.

Sowohl im Informations- als auch im Code-Bereich werden systematische Schwächen von Sprachmodellen ausgenutzt. Unternehmen sind daher angehalten, ihre KI-basierten Tools und Informationsquellen kritisch zu hinterfragen. Insbesondere dürfen Unternehmen nicht die Bedeutung der Sensibilisierung und Schulung der Mitarbeitenden vernachlässigen. Der Aufbau von Wissen über KI-Risiken, die klare Zuweisung von Verantwortlichkeiten und ein kontinuierliches Monitoring sind unabdingbar. Unternehmen, die KI einsetzen, müssen ihre Prozesse an den Stand der Technik anpassen und technische sowie organisatorische Maßnahmen nachweisbar umsetzen, um Diskriminierung, rechtliche Risiken und Sicherheitsvorfälle zu vermeiden.

Fazit

Die Studie von NewsGuard macht deutlich, dass trotz aller Fortschrittsversprechen die Kernprobleme der generativen KI – Halluzinationen und die Verbreitung von Falschinformationen – nicht nur bestehen bleiben, sondern sich sogar verschärfen. Für Unternehmen ist es unerlässlich, diese Risiken als kritische Sicherheits- und Compliance-Themen zu begreifen. Eine stringente KI-Compliance, unterstützt durch einen „KI-Beauftragten“, der Risiken bewertet, neue KI-Tools begleitet und Mitarbeitende schult, ist ein entscheidender Erfolgsfaktor.

Der „KI-Beauftragte“

Ihre Lösung für rechtssichere KI-Compliance

Wir bieten Unternehmen eine umfassende Lösung für die rechtlichen und regulatorischen Herausforderungen, die der Einsatz von KI mit sich bringt. 

Jetzt unverbindliches Angebot anfordern