Falschaussagen durch KI – wer haftet? Ein Überblick über die aktuelle Rechtslage
Lesedauer: 8 Minuten


Viele Unternehmen nutzen künstliche Intelligenz, um Content zu produzieren – sei es zur Wissensvermittlung oder aus Marketing-Gründen. Dies spart Zeit und Ressourcen. Doch leider arbeiten KI-Bots nicht fehlerfrei. Oft treffen sie falsche Aussagen. Im schlimmsten Fall entstehen so wirtschaftliche Schäden; oder KI-Software stellt Behauptungen auf, die andere Personen in ihrer Ehre verletzen. Gerade wenn solche Fehler in Unternehmensprofilen auftauchen, sollten Betroffene schnell handeln und die falsche Google Bewertung löschen lassen, um Reputationsschäden zu vermeiden.
Die Frage lautet nun: Wer haftet für diese Aussagen? Aktuell geltendes Recht kommt hier an seine Grenzen, da es die Besonderheiten künstlicher Intelligenz (noch) nicht berücksichtigt. Trotzdem existieren bereits Gerichtsurteile, die sich mit der Frage nach der Haftung beschäftigen und Orientierung bieten. In dieser Übersicht stellen wir die wichtigsten Entscheidungen vor – und zeigen, worauf Unternehmen bei der Nutzung von KI-Content achten sollten.
Falschaussagen durch KI – die wichtigsten Infos
- Unklare Rechtslage: Aktuell herrscht viel Unklarheit zur Frage, wer für falsche KI-Aussagen haftet. Eine allgemein gültige Rechtsprechung fehlt.
- EU-Produkthaftungsrichtlinie: Die aktualisierte Richtlinie macht präzisere Aussagen zu diesem Thema. Sie muss in Deutschland jedoch erst umgesetzt werden.
- Wichtige Urteile: Für Unternehmen, die KI-Content nutzen, sind vor allem zwei Fälle relevant: das Urteil des LG Kiel (2024) und der Beschluss des LG Hamburg (2025).
- Haftung der Betreiber: In beiden Fällen wurden Betreiber, die sich fehlerhaften KI-Content zu eigen gemacht und veröffentlicht hatten, dafür haftbar gemacht – obwohl sie den Content nicht selbst erstellt hatten.
- Sorgfaltspflicht: Dies zeigt, dass die Nutzung von KI-Bots nicht von der Sorgfaltspflicht entbindet. Unternehmen sollten KI-generierten Content kritisch prüfen und Kontrollmechanismen etablieren.
Warum produziert künstliche Intelligenz Falschaussagen?
KI-Bots wie ChatGPT und Gemini werden immer leistungsfähiger. Dennoch arbeiten sie nicht fehlerfrei. Oft kommt es zu einem Phänomen, das KI-Experten als „Halluzinationen“ bezeichnen. Die künstliche Intelligenz erstellt falsche oder erfundene Aussagen.
Gründe dafür können Fehler im Trainingssatz sein. Hat die KI eine Information bereits falsch gelernt, wird sie diese genau so wiedergeben. In anderen Fällen ziehen KI-Bots falsche Schlüsse oder füllen Wissenslücken mit erfundenen Informationen aus. Das kommt vor allem dann vor, wenn der Input durch den Nutzer unklar ist. Auch komplexe Themen mit geringer Datenlage stellen KI-Bots vor Herausforderungen.
Die Fehlerquote künstlicher Intelligenzen lässt sich sogar quantifizieren. So zeigte eine Studie der Europäischen Rundfunkunion (EBU) im Jahr 2025: Bis zu 40 % der Antworten durch ChatGPT, Gemini und andere KI-Bots waren frei erfunden. Keine in der Studie getestete KI arbeitete fehlerfrei.
Welche Folgen können falsche Aussagen einer KI haben?
Die meisten Falschaussagen von KI-Bots sind harmlos. Wer z. B. ChatGPT eine Wissensfrage stellt und darauf eine falsche Antwort erhält, ärgert sich vielleicht. Doch problematisch (und rechtlich relevant) werden Fehler der künstlichen Intelligenz vor allem in folgenden Fällen:
- Medizinische Falschinformationen: KI-Bots liefern falsche Informationen, z. B. zur Dosierung von Medikamenten. Patienten, die sich auf diese Informationen verlassen, riskieren ihre Gesundheit.
- Politische Fehlinformationen: Diese sind problematisch, wenn sie Stereotypen verstärken, Hass gegen bestimmte Gruppen schüren oder das Vertrauen in öffentliche Institutionen untergraben.
- Wirtschaftliche Schäden: Fällt eine Marktanalyse durch KI z. B. falsch aus, können Unternehmen große Summen verlieren. Ein Beispiel stellt das Unternehmen Zillow dar. Dieses ließ 2021 den Wert von Immobilien durch KI schätzen. Fehlerhafte Analysen führten zu einem Verlust von mehr als 500 Millionen USD.
- Persönlichkeitsrechtsverletzungen: Falsche KI-Aussagen könnten Personen in ihrer Ehre verletzen und öffentlich herabwürdigen. Auf dieses Phänomen werden wir uns im Folgenden konzentrieren.
Wer haftet für Falschaussagen der KI?
Wer falsche Aussagen über Dritte aufstellt und/oder veröffentlicht, kann dafür zur Rechenschaft gezogen werden. Relevant sind in diesem Kontext z. B. die Straftatbestände der üblen Nachrede oder Verleumdung.
Allerdings zeigt sich hier ein Problem: KI-Bots wie ChatGPT oder Gemini sind im juristischen Sinn keine Personen. Sie können selbstverständlich nicht für Rechtsverletzungen haften. Eine künstliche Intelligenz anzuklagen, wäre absurd. Auch Forderungen nach Schadensersatz oder Schmerzensgeld würden ins Leere führen.
Als Hafter kommen daher nur folgende Akteure infrage:
- Der Entwickler der KI (der die Intelligenz entworfen und trainiert hat).
- Der Betreiber (das Unternehmen, das die KI zu gewerblichen Zwecken verwendet).
Die Frage, wer bei einem KI-Fehler haftet, ist alles andere als trivial. Das Problem: KI-Bots entwickeln naturgemäß „ein Eigenleben“. Sie werden zwar anhand großer Datenmengen trainiert, doch der Output lässt sich nicht immer vorhersehen. Dies macht es schwierig, den Entwickler in die Verantwortung zu nehmen.
Haftet also der Betreiber? Muss er jede Aussage der KI auf ihren Wahrheitsgehalt überprüfen? Das klassische Haftungsrecht ist mit dieser Frage überfordert. Aus diesem Grund arbeiten Gesetzgeber an neuen Vorgaben.
Was sagt der Gesetzgeber zu diesem Thema?
Künstliche Intelligenz ist ein relativ neues Phänomen. Dennoch gibt es bereits Richtlinien und Gerichtsbeschlüsse, die sich der Frage „Haftung für KI-Aussagen“ annähern.
EU-Produkthaftungsrichtlinie
Um auf die Herausforderungen durch künstliche Intelligenz zu reagieren, wurde 2024 die EU-Produkthaftungsrichtlinie aktualisiert. Diese zählt nun KI-Software zur Kategorie „Produkte“ und macht genauere Angaben zur Haftung. Unter anderem definiert die neue Richtlinie präziser, wann eine KI fehlerhaft arbeitet. Auch das sog. Black Box-Problem findet Erwähnung.
Hinweis: So bahnbrechend die neue Richtlinie ist – für konkrete Haftungsfragen spielt sie zumindest vorerst keine Rolle, da sie erst bis zum 9. Dezember 2026 in deutsches Recht umgesetzt werden muss.
Urteil des Landgerichts Kiel (2024)
Wer haftet für KI-generierte Texte? Mit dieser Frage beschäftigte sich das Landgericht Kiel (Urt. v. 29.2.2024, Az. 6 O 151/23). Geklagt hatte ein mittelständisches Unternehmen gegen ein Online-Portal, das aufgrund eines KI-Fehlers fälschlicherweise die Löschung des Unternehmens aus dem Handelsregister wegen Vermögenslosigkeit behauptete.
Die Entscheidung: Das LG Kiel entschied zugunsten des klagenden Unternehmens. Die beklagte Website hatte sich die Äußerung zwar nicht wissentlich, aber durch die Nutzung der KI zu eigen gemacht. Die Richter urteilten:
„Die Beklagte kann sich nicht darauf zurückziehen, sie sei an diesem automatischen Vorgang nicht beteiligt gewesen, weil sie sich bewusst zur Beantwortung von Suchanfragen ihrer Nutzer einer künstlichen Intelligenz bedient hat, die in Fällen wie diesem unzulänglich programmiert war [...]“
Einstweilige Verfügung des LG Hamburg (2025)
2025 befasste sich das LG Hamburg mit Falschaussagen durch KI (Beschluss vom 23.09.2025, Az.: 324 O 461/25). Akteure waren der Verein Campact e.V. und X.AI (Elon Musk). Der KI-Chatbot „Grok“ hatte fälschlicherweise behauptet, Campact werde durch Steuergelder finanziert.
Die Entscheidung: Campact erwirkte erfolgreich eine einstweilige Verfügung. Laut dem LG Hamburg spielte es keine Rolle, dass der Tweet per KI generiert wurde. Der Betreiber X habe sich den Beitrag zu eigen gemacht und sei für dessen Inhalt verantwortlich. Er hätte ihn vor der Veröffentlichung prüfen müssen.
Falschaussagen durch KI – Was sollten Unternehmen beachten?
Die beiden vorgestellten Gerichtsurteile zeigen deutlich: KI-generierter Content bietet zwar Vorteile, ist jedoch auch mit Risiken verbunden. Selbst wenn Sie als Unternehmer nicht selbst Content erstellen, sondern eine KI beauftragen, sind Sie für den Inhalt verantwortlich. Die Schuld auf das „Eigenleben“ von KI-Bots zu schieben, ist nach aktueller Rechtsprechung kaum möglich.
Unser Rat: Etablieren Sie strenge Qualitätskontrollen. Vor allem, wenn potenziell ehrschädigende Tatsachen über Dritte veröffentlicht werden, sollten Unternehmen diese Tatsachen genau überprüfen. Ansonsten riskieren sie rechtliche Konsequenzen – von einer Abmahnung bis hin zu Schadensersatzforderungen. Wenn Sie selbst von Rufschädigung betroffen sind, unterstützen wir Sie gerne beim Entfernen negativer Rezensionen.