Ein Nutzer der Plattform X.com stellte dem KI-Chatbot Grok über dessen öffentlich zugängliches Profil (@grok) eine Frage nach Organisationen in Deutschland, die staatliche Förderungen erhalten. Grok nannte in seiner automatisch generierten und unmittelbar auf X.com veröffentlichten Antwort auch den Namen des Antragstellers und listete ihn unter Organisationen auf, die auf Bundesmittel angewiesen seien. Tatsächlich erhielt der Antragsteller zu keinem Zeitpunkt staatliche Förderungen. Die generierte Aussage war mithin eine unwahre Tatsachenbehauptung. Der Antragsteller wandte sich im Wege des einstweiligen Verfügungsverfahrens gegen die Betreiberin der Plattform und des Chatbots und begehrte Unterlassung der Verbreitung dieser Falschinformation.
Das Landgericht Hamburg gab dem Antrag statt und erließ eine einstweilige Verfügung (LG Hamburg, Beschluss vom 23.09.2025 – 324 O 461/25 (Grok / X.com[K)). Es untersagte der Antragsgegnerin, die streitgegenständliche Aussage erneut zu behaupten oder zu verbreiten. Zur Begründung führte das Gericht aus, die angegriffene Äußerung verletze das Vereinspersönlichkeitsrecht des Antragstellers. Der maßgebliche Durchschnittsrezipient entnehme dem Beitrag die Tatsachenbehauptung, der Antragsteller erhalte staatliche Förderungen. Da diese Behauptung unwahr sei, liege eine rechtswidrige Persönlichkeitsrechtsverletzung vor.
Das Gericht stellte außerdem klar, dass die Tatsache, dass die Beiträge von einer KI erstellt werden, an der äußerungsrechtlichen Beurteilung nichts ändere. Nutzer der Plattform X würden KI-generierte Aussagen – zumal Grok selbst auf die „Faktenbasiertheit“ seiner Aussagen verweist – nicht anders behandeln als menschlich verfasste Beiträge und ihnen besondere faktische Aussagekraft beimessen. Die Antragsgegnerin habe sich die Aussagen durch die Präsentation auf dem von ihr betriebenen Account jedenfalls zu eigen gemacht und hafte daher als Betreiberin.
Für die äußerungsrechtliche Bewertung ist es demnach irrelevant, ob ein Mensch oder eine KI Falschinformation produziert hat. KI-Outputs unterliegen denselben presserechtlichen und persönlichkeitsrechtlichen Maßstäben wie redaktionelle Beiträge.
Unternehmen, die KI-Chatbots mit öffentlichem Auftritt betreiben, müssen technische und organisatorische Maßnahmen ergreifen, um die Verbreitung unwahrer Tatsachenbehauptungen über Einzelpersonen oder Organisationen zu verhindern. Ein Hinweis auf die KI-Natur der Ausgabe entbindet nicht von der Haftung.
Ungeklärt bleibt, ob und unter welchen Voraussetzungen ein menschlicher Nutzer, der eine KI-generierte Falschinformation in gutem Glauben weiterverbreitet und daraufhin selbst in Anspruch genommen wird, einen Regressanspruch gegen den KI-Betreiber geltend machen kann.
Wir beraten Sie gerne.