Übersicht

medienrechts blog: Reputationsschutz und Internet: Zeitenwende durch KI?

Merkt Emile, in: bratschi medienrechts blog, Oktober 2025

Stellen wir uns vor: Ein Chatbot wie ChatGPT behauptet fälschlicherweise, eine bekannte Person sei in einen Skandal verwickelt. Oder er verweist auf einen Artikel, der den Ruf einer Person schädigt. Wer trägt dann die Verantwortung – der Autor des ursprünglichen Artikels, unter Umständen sogar die Nutzerin, die den Chatbot befragt, oder der Betreiber der KI selbst?

Aktuelle Rechtslage
 

Der Ausgangspunkt für die Beantwortung dieser Frage ist, wie so oft bei Persönlichkeitsverletzungen, Art. 28 ZGB. Gemäss dieser Bestimmung kann jede Person, die an einer Persönlichkeitsverletzung mitwirkt, gerichtlich dafür belangt werden. In seinem Leitentscheid BGE 141 III 513 hat das Bundesgericht den Begriff der Mitwirkung an einer Persönlichkeitsverletzung weit gefasst: Das Gesetz nimmt mit dem Zeitwort «mitwirken» neben dem eigentlichen Urheber der Verletzung jede Person ins Visier, deren Verhalten die Verletzung verursacht, ermöglicht oder begünstigt, wobei nicht vorausgesetzt ist, dass ihr ein Verschulden zur Last fällt. Demnach kann nicht nur der Urheber einer Publikation ins Recht gefasst werden, sondern auch jede Person, die zur Übermittlung der streitigen Äusserungen beiträgt, ohne selbst deren direkter Urheber zu sein oder deren Inhalt oder Urheber auch nur zu kennen.

Im gleichen obenzitierten Entscheid hielt das Bundesgericht aber ebenfalls fest, dass das weite Begriffsverständnis nichts daran ändert, dass zwischen dem Verhalten desjenigen, der ins Recht gefasst wird, und der Persönlichkeitsverletzung ein Kausalzusammenhang bestehen muss. In einem kürzlich ergangenen Entscheid des Handelsgerichts Zürich (HG220030-O vom 21. August 2024) verneinte dieses die Passivlegitimation einer Suchmaschine, unter Hinweis auf den fehlenden Kausalzusammenhang: Die persönlichkeitsverletzenden Artikel konnten nur über die Suchmaschine gefunden werden, wenn der Name der Klägerin zusammen mit einem weiteren, den Artikel identifizierenden Stichwort eingegeben wurde. Die Suchmaschine machte somit die Inhalte nur Nutzern zugänglich, die die Artikel schon kannten. Damit fehlte ein erforderlicher Kausalzusammenhang zwischen der Handlung der beklagten Suchmaschine und der Rufschädigung, weshalb keine Mitwirkung an der Persönlichkeitsverletzung vorlag.


 

Und wie ist das bei Chatbots?
 

Was bedeutet dieses durch das Bundesgericht und Handelsgericht definierte Verständnis des Kausalzusammenhangs zwischen Handlung und Persönlichkeitsverletzung für Chatbots?

Es gibt meines Erachtens drei Kategorien von Persönlichkeitsverletzungen, die aus einer Recherche mit einem Chatbot entstehen können und für die der Betreiber des Chatbots belangt werden kann: Erstens, ähnlich wie bei Suchmaschinen, kann der Betreiber eines Chatbots die Persönlichkeitsrechte Dritter verletzen, indem sein Chatbot Links zu persönlichkeitsverletzenden Inhalten bereitstellt. Zweitens kann die direkte Wiedergabe, Verwendung oder Zusammenfassung von anderswo veröffentlichten rufschädigenden Inhalten ebenfalls eine Persönlichkeitsverletzung darstellen. Drittens kann die eigenständige Erstellung von persönlichkeitsverletzenden Inhalten die Voraussetzungen von Art. 28 ZGB erfüllen. In welchem der drei Fälle verletzt der Betreiber eines Chatbots die Persönlichkeitsrechte Dritter im Sinne der oben beschriebenen bundes- und handelsgerichtlichen Rechtsprechung?

 

  • Bei der Verlinkung von persönlichkeitsverletzenden Inhalten ist die Rechtsprechung zu Suchmaschinen ohne Weiteres anwendbar. Eine Mitwirkungshandlung mit genügender Kausalität kann nur vorliegen, wenn eine Nutzerin ohne Vorwissen einen oder mehrere Begriffe in den Chatbot eingibt und dabei auf Links zu persönlichkeitsverletzenden Inhalten stösst. Lässt aber der Eingabewortlaut der Nutzerin darauf schliessen, dass ihr die Existenz der verletzenden Inhalte bekannt war, wird die Bejahung der für die Haftung wegen Persönlichkeitsverletzung vorausgesetzten Kausalität unwahrscheinlich.
     
  • Durch die direkte Wiedergabe der persönlichkeitsverletzenden Inhalte auf seinem eigenen Portal handelt der Chatbot (oder sein Betreiber) selbst. Die Handlung besteht in der direkten Übernahme und Wiedergabe eines durch einen Dritten publizierten Inhalts. Das Bundesgericht hat in BGE 126 III 305 entschieden, dass die Mitwirkung im Sinne von Art. 28 ZGB die originalgetreue Wiedergabe von Behauptungen Dritter umfasst. Damit müsste die Wiedergabe persönlichkeitsverletzender Inhalte durch den Chatbot eine Persönlichkeitsverletzung darstellen. Dieser Einschätzung steht jedoch die oben beschriebene Rechtsprechung entgegen: Wenn der Chatbot die persönlichkeits-verletzenden Inhalte nur wiedergegeben hat, weil die Nutzerin ihn durch Prompts direkt zur Wiedergabe der Rufschädigung veranlasst hat, dürfte es analog des eingangs erwähnten Handelsgerichtsurteils an einem Kausalzusammenhang zwischen der Handlung des Chatbots (bzw. dessen Betreiber) und der Persönlichkeitsverletzung fehlen. Somit dürfte der Betreiber des Chatbots die Persönlichkeitsrechte Dritter nur in justiziabler Weise verletzen, wenn der Nutzerin bei Eingabe des Prompts die vom Chatbot generierten persönlichkeitsverletzenden Inhalte im Vorfeld nicht bekannt waren. 
     
  • Falls ein Chatbot selbständig persönlichkeitsverletzende Inhalte kreiert, ist es wahrscheinlich, dass sein Betreiber dafür belangt werden kann. Da der Chatbot mit der Kreation des rufschädigenden Inhaltes zu dessen Urheber wird, müsste seine Mitwirkung ohne Weiteres gegeben sein. Auch wenn der Chatbot zusammen mit einer Nutzerin persönlichkeitsverletzende Inhalte produziert, wirkt er in wesentlichem Umfang an der Verletzung mit. Allerdings muss dem Chatbot auch in dieser Hypothese mehr als eine rein ausführende Rolle zukommen, damit sein Betreiber dafür belangt werden kann. Sofern die persönlichkeitsverletzende Äusserung des Chatbots bereits in den Prompts der Nutzerin enthalten ist und der Chatbot diese nur in anderen Worten wiedergibt, müsste eine vom Chatbot ausgehende Persönlichkeitsverletzung zu verneinen sein. 


     

Zusammengefasst ist die Anwendung der bundes- und handelsgerichtlichen Rechtsprechung, wonach der Kausalzusammenhang für die Mitwirkungshandlung nicht gegeben ist, wenn identifizierende Stichwörter nötig sind, um eine persönlichkeitsverletzende Publikation über eine Suchmaschine zu finden, bis zu einem gewissen Grad auch für Chatbots anwendbar. Auch hier muss der Richtwert sein, dass der Nutzerin die Rufschädigung durch die Nutzung des Chatbots bekannt wird. Lässt der Prompt darauf schliessen, dass die Nutzerin die Persönlichkeitsverletzung kannte (oder unter Umständen selbst veranlassen wollte), müssen eine relevante Mitwirkungshandlung des Chatbots und somit die Haftung seines Betreibers verneint werden. 
 

 

Knackpunkt 1: Wer wusste was?
 

Die Gerichte werden sich bald mit der Frage auseinandersetzen müssen, wie weit Betreiber von KI-Tools für Persönlichkeitsverletzungen haften. Klar ist schon jetzt: Chatbots sind nicht einfach «neutrale Suchmaschinen». Wenn sie selbst Inhalte erfinden oder eigenständig verfälscht wiedergeben, ist die Schwelle zur Mitwirkung deutlich schneller erreicht. Entscheidend ist, ob die Nutzerin die Verletzung schon kannte oder bewusst provoziert hat – oder ob der Chatbot sie eigenständig generiert hat. Nur im zweiten Fall ist eine Haftung des Betreibers wahrscheinlich.
 

 

Knackpunkt 2: Hürden bei der Umsetzung 
 

Selbst wenn eine betroffene Person juristisch gegen den Betreiber eines Chatbots vorgehen möchte, sind erhebliche praktische Schwierigkeiten zu erwarten. Zwar kann sie den Gerichtsstand am Ort der Verletzung wählen, in der Praxis steht sie jedoch meist einem grossen, international tätigen Konzern gegenüber, dessen Gesellschaftsstrukturen und rechtliche Zuständigkeiten komplex und schwer durchschaubar sind. Hinzu kommt, dass die Mitwirkungsbeiträge bei Chatbots weit weniger klar abgrenzbar sind als bei Suchmaschinen: Während dort ein lineares Verhältnis zwischen Suchanfrage und Trefferliste besteht, hängt die Antwort eines Chatbots stark von Faktoren wie Promptgestaltung, Gesprächsverlauf oder internen Systemeinstellungen ab. Dies erschwert die Nachweisbarkeit, welche konkrete Handlung des Chatbots tatsächlich zur Persönlichkeitsverletzung durch ihren Betreiber geführt hat.


 

Fazit
 

Mit dem Einsatz von KI-gestützten Chatbots verschieben sich die bisherigen Grenzen des Persönlichkeitsrechtsschutzes. Während bei Suchmaschinen die Rolle als «neutraler Vermittler» überwiegt, können Chatbots durch eigenständige Generierung von Inhalten zur Quelle neuer Persönlichkeitsverletzungen werden. Damit rückt die Haftung der Betreiber stärker in den Fokus – zugleich bleibt aber die praktische Durchsetzung für Betroffene aufgrund internationaler Strukturen und komplexer Kausalzusammenhänge eine erhebliche Herausforderung.

bratschiBLOG

Autoren

Merkt Emile
Emile Merkt
Rechtsanwalt
Zürich
Zum Profil

Unsere Standorte

Zum Kontaktformular