Die zunehmende Integration generativer künstlicher Intelligenz (KI) in digitale Plattformen und Geschäftsprozesse wirft verstärkt haftungsrechtliche Fragen auf. Insbesondere wenn KI-Systeme sogenannte „Halluzinationen“ erzeugen – also inhaltlich falsche, aber überzeugend klingende Aussagen – stellt sich für Unternehmen die zentrale Compliance-Frage, wer für die öffentliche Verbreitung dieser Fehlinformationen die Verantwortung trägt. Eine aktuelle Entscheidung des Landgerichts (LG) Hamburg erlässt einstweilige Verfügung gegen den Chatbot X.ai der Plattform X zur Unterlassung.
Der Sachverhalt
Ausgangspunkt des Gerichtsverfahrens war eine unwahre Tatsachenbehauptung des von Elon Musk gegründeten Unternehmens X.AI, Betreiber des KI-Chatbots Grok. Auf eine Nutzeranfrage auf der Social-Media-Plattform X (ehemals Twitter) behauptete Grok, die Kampagnen-Organisation Campact e.V. werde mit Steuergeldern finanziert oder erhalte einen hohen Anteil aus Bundesmitteln. Tatsächlich nimmt Campact e.V. nach eigener Darstellung jedoch keine unmittelbaren oder mittelbaren staatlichen Fördermittel in Anspruch. Da es sich bei der KI-generierten Aussage um eine Halluzination und eine objektiv falsche und ehrabträgliche Behauptung handelte, ging Campact e.V. juristisch im Wege des Eilverfahrens dagegen vor.
Die Entscheidung des LG Hamburg
Das Landgericht Hamburg erließ am 23.09.2025 (Beschluss Az. 324 O 461/25) eine einstweilige Verfügung gegen X.AI LLC und untersagte die weitere Verbreitung der unwahren Tatsachenbehauptung. Das Gericht stellte fest, dass die Äußerung das Vereinspersönlichkeitsrecht von Campact verletzt. Entscheidend für die Rechtsprechung ist die klare Haltung des Gerichts zur Betreiberhaftung. Die Tatsache, dass der beanstandete Beitrag von einer KI erstellt wurde, ändert nichts an der äußerungsrechtlichen Unzulässigkeit der Darstellung.
Das LG Hamburg begründete dies damit, dass Nutzer von X (ehemals Twitter) die Aussagen des Grok-Accounts als Tatsachenbehauptungen werten – zumal die KI selbst auf ihre faktenbasierte Herangehensweise verweist. Als Betreiberin des Accounts hat sich X.AI die entsprechenden Aussagen zu eigen gemacht und muss dafür einstehen. Für den Fall der Zuwiderhandlung drohte das Gericht X.AI ein Ordnungsgeld von bis zu 250.000 Euro an.
Der KINAST „KI-Beauftragte“
Ihre Lösung für rechtssichere KI-Compliance
Bedeutung für Unternehmen
Die Entscheidung des LG Hamburg markiert einen wichtigen Vorstoß in der KI-Rechtsprechung, da sie die Haftung klar dem Betreiber des KI-Systems – und nicht nur dem Anwender – zurechnet. Für Unternehmen, die öffentliche, KI-gestützte Dienste (wie Chatbots oder automatisierte Auskunftssysteme) einsetzen, ergeben sich daraus wesentliche Konsequenzen.
Das Gericht signalisiert zum einen, dass sich Betreiber von öffentlich zugänglichen KI-Systemen nicht einfach mit allgemeinen Haftungsausschlüssen oder Disclaimern von inhaltlichen Fehlern distanzieren können. Dr. Astrid Deilmann, geschäftsführende Vorständin von Campact e.V., bezeichnete den Beschluss als ein wichtiges Signal im Kampf gegen Fake News. Sie hob hervor, dass er klarmache, dass „auch KI-Chatbots wie Grok der Wahrheit verpflichtet“ sind und das Unternehmen dafür sorgen müsse, dass Lügen nicht verbreitet werden.
Betreiber haften daher grundsätzlich für den Output ihrer KI-Systeme, zumindest wenn dieser öffentlich wahrnehmbar ist, beispielsweise auf einer Website oder einer Social-Media-Plattform. Zusammenfassend sollten Unternehmen die KI einsetzen sicherstellen, dass die erzeugten Inhalte rechtlich zulässig sind und keine unwahren Tatsachenbehauptungen oder irreführenden Aussagen verbreiten, um Reputationsschäden und rechtliche Konsequenzen zu vermeiden.
Fazit
Die Haftung für Fehlinformationen, die durch eine KI-Halluzination entstehen, verbleibt beim Unternehmen als Betreiber des Dienstes. Um die Potenziale der KI zu nutzen und gleichzeitig rechtliche Risiken zu minimieren, ist eine stringente KI-Compliance unerlässlich. Proaktive technische Schutzmechanismen, die die Korrektheit der KI-generierten Inhalte kontrollieren, und klare interne Prozesse sind notwendig, um die Betreiberhaftung wirksam zu begrenzen. Die Entscheidung des LG Hamburg verdeutlicht, dass Betreiber von KI-Systemen die Richtigkeit ihrer öffentlichen Äußerungen gewährleisten müssen, denn die KI ist kein Freifahrtschein für die Verbreitung von Lügen.










