Wenn der KI-Chatbot falsche Werbeaussagen trifft: Haftung & Compliance bei Halluzinationen

Generative künstliche Intelligenz (KI) verändert das Online-Marketing grundlegend. Doch wo Chancen entstehen, lauern auch Risiken. Wenn KI-Suchmaschinen oder interne Chatbots falsche oder irreführende Aussagen zu Rabatten oder Produkteigenschaften treffen, stellt sich die Frage: Wer haftet für diese „Halluzinationen“?

Das Problem der Chatbots & KI-Zusammenfassungen

Die Einführung generativer Suchfunktionen wie Googles AI Overviews verändert die Spielregeln des Online-Marketings grundlegend. Unternehmen, die bislang in klassisches SEO-Marketing investiert haben, stehen nun vor der Herausforderung, dass KI-Modelle wie Googles AI Overview (AIO) und Gemini sowie OpenAIs GPT-4o den direkten Website-Traffic erheblich reduzieren. Nutzer erhalten ihre Antworten zunehmend direkt im Chat oder bereits in der Suchergebnisliste – ohne die ursprünglichen Quellen überhaupt aufrufen zu müssen.

Ein US-Verlag hat deshalb bereits Klage gegen Google eingereicht, und in Deutschland wurde bei der Bundesnetzagentur eine DSA-Beschwerde eingereicht. Kritiker warnen, dass dieses Modell die wirtschaftliche Grundlage des freien Internets gefährde. Eine aktuelle Studie belegt zudem, dass 53 Prozent der von AIO zitierten Quellen nicht einmal zu den organischen Top-10-Treffern für dieselbe Suchanfrage gehören.

Gleichzeitig setzen immer mehr Unternehmen auf eigene KI-Chatbots, die direkt auf ihren Websites integriert sind, um den Kundenservice zu automatisieren und effizienter zu gestalten. Doch was geschieht, wenn diese Systeme – ob extern oder intern – sogenannte „Halluzinationen“ erzeugen, also überzeugend klingende, aber faktisch falsche oder irreführende Aussagen treffen? In solchen Fällen stellt sich die entscheidende Frage nach der rechtlichen Verantwortung und Haftung für KI-generierte Inhalte.

Wettbewerbsrecht

Das zentrale Problem für Unternehmen liegt in der Frage der Haftung, denn die KI selbst ist keine juristische Person. Wenn ein Chatbot falsche Produktdetails nennt, Preise erfindet oder Garantie-Zusagen „halluziniert“, handelt es sich potenziell um irreführende Werbung nach dem Gesetz gegen den unlauteren Wettbewerb (§§ 5 ff. UWG).

Um in den Ergebnissen von AI Overviews und ChatGPT gelistet zu werden, können Unternehmen verleitet sein ihre Website entsprechend anzupassen. Dabei sollten Unternehmen jedoch vorsichtig sein. Insbesondere wenn Unternehmen versuchen, KI-Antworten durch das gezielte Platzieren falscher oder übertriebener Inhalte, möglicherweise versteckt für Webcrawler, zu manipulieren. Ein solches Vorgehen könnte als unzulässige Schleichwerbung im Sinne des § 5a Abs. 4 UWG gewertet werden.

Haftungsrisiko durch Halluzinationen

Unternehmen haften als Betreiber für den Output ihrer KI-Systeme nach den Grundsätzen der Störerhaftung (§ 1004 BGB). Ein Betreiber haftete nach Entscheidung des Landgericht Kiel (Urteil vom 29.02.2024 – 6 O 151/23) als unmittelbarer Störer für geschäftsschädigende Falschinformationen, die von einer unzulänglich programmierten KI generiert wurden, da er sich bewusst dieses automatisierten Systems bediente.

Auch ein kanadisches Gericht (Civil Resolution Tribunal of British Columbia, Urteil vom 14.02.2024 – BCCRT 149) verurteilte eine Airline zur Zahlung von Rabatten, nachdem deren Chatbot einem Kunden eine falsche Kulanzregelung zugesichert hatte. Das Gericht stellte klar, dass sich das Unternehmen nicht durch den Einsatz der KI seiner vertraglichen Verantwortung entziehen könne und die Aussage des Chatbots denselben bindenden Aussagewert wie die Website-Informationen habe. Die Fluggesellschaft hatte nicht die nötige Sorgfalt walten lassen, um die Korrektheit der Aussagen des virtuellen Assistenten zu gewährleisten.

Herausforderungen der KI-VO und DSGVO

Neben dem UWG sind auch die Datenschutz-Grundverordnung (DSGVO) und die neue KI-Verordnung (KI-VO) zu berücksichtigen. Mit der KI-VO rücken zusätzliche Compliance-Anforderungen in den Fokus. Zwar gelten generative Marketing-Anwendungen nicht unbedingt als Hochrisiko-KI, doch gelten für GPAI dennoch Informations- und Transparenzpflichten. Nutzer müssen wissen, wenn sie mit einer KI interagieren und KI-generierte Inhalte müssen als solche kenntlich gemacht werden.

Zudem unterliegt der Einsatz interaktiver KI-Chatbots auf der eigenen Website der DSGVO. Das Hauptproblem ist die Verarbeitung von personenbezogenen Daten, die Nutzer ungefragt eingeben (aufgedrängte Daten). Aufgrund der mangelnden Transparenz vieler KI-Systeme (Blackbox) ist es oft schwierig, Betroffenenrechte wie das Recht auf Auskunft oder Löschung zu erfüllen.

Je nach zugrundeliegendem Modell und genutztem Anbieter müssen Unternehmen klären, ob die Eingaben der Nutzer zum Training der Modelle genutzt werden oder ob eine Datenübermittlung in Drittstaaten (z. B. bei US-basierten Modellen) stattfindet. Gegebenenfalls ist die Durchführung einer Datenschutz-Folgenabschätzung (DSFA) notwendig.

Fazit

Die neue Ära der generativen Suche stellt Unternehmen vor erhebliche Herausforderungen, da traditionelle SEO-Strategien an Wirkung verlieren und gleichzeitig die Haftungsrisiken steigen. Die Verbreitung von Falschinformationen durch KI-Chatbots verschärft die Risikolandschaft für Reputationsschäden und rechtliche Konsequenzen. Da die KI keine Verantwortung trägt, bleibt die Haftung für irreführende Aussagen, Datenschutzverstöße und Wettbewerbsrechtsverletzungen beim Unternehmen als Betreiber.

Eine stringente KI-Compliance, unterstützt durch geschulte Mitarbeiter und klare Prozesse, ist daher unerlässlich, um die Potenziale der KI zu nutzen, ohne die rechtlichen Fallstricke zu ignorieren. Um die Haftungsrisiken, insbesondere durch Falschaussagen und mangelnde Compliance, in den Griff zu bekommen, sind proaktive technische und organisatorische Maßnahmen unerlässlich. Der Umgang mit diesen komplexen Rechtsfragen, insbesondere an den Schnittstellen von UWG, DSGVO und KI-VO, erfordert eine sorgfältige juristische Expertise, um maßgeschneiderte Compliance-Strategien zu entwickeln. Mit KINAST erhalten Sie KI-Compliance aus einer Hand.

KINAST: KI-Compliance aus einer Hand

  • individuelle KI-Beratung
  • externer KI-Beauftragter
  • modulare KI-Schulungskonzepte
Mehr erfahren