Stellen wir uns vor: Ein Chatbot wie ChatGPT behauptet fälschlicherweise, eine bekannte Person sei in einen Skandal verwickelt. Oder er verweist auf einen Artikel, der den Ruf einer Person schädigt. Wer trägt dann die Verantwortung – der Autor des ursprünglichen Artikels, unter Umständen sogar die Nutzerin, die den Chatbot befragt, oder der Betreiber der KI selbst?
Aktuelle Rechtslage
Der Ausgangspunkt für die Beantwortung dieser Frage ist, wie so oft bei Persönlichkeitsverletzungen, Art. 28 ZGB. Gemäss dieser Bestimmung kann jede Person, die an einer Persönlichkeitsverletzung mitwirkt, gerichtlich dafür belangt werden. In seinem Leitentscheid BGE 141 III 513 hat das Bundesgericht den Begriff der Mitwirkung an einer Persönlichkeitsverletzung weit gefasst: Das Gesetz nimmt mit dem Zeitwort «mitwirken» neben dem eigentlichen Urheber der Verletzung jede Person ins Visier, deren Verhalten die Verletzung verursacht, ermöglicht oder begünstigt, wobei nicht vorausgesetzt ist, dass ihr ein Verschulden zur Last fällt. Demnach kann nicht nur der Urheber einer Publikation ins Recht gefasst werden, sondern auch jede Person, die zur Übermittlung der streitigen Äusserungen beiträgt, ohne selbst deren direkter Urheber zu sein oder deren Inhalt oder Urheber auch nur zu kennen.
Im gleichen obenzitierten Entscheid hielt das Bundesgericht aber ebenfalls fest, dass das weite Begriffsverständnis nichts daran ändert, dass zwischen dem Verhalten desjenigen, der ins Recht gefasst wird, und der Persönlichkeitsverletzung ein Kausalzusammenhang bestehen muss. In einem kürzlich ergangenen Entscheid des Handelsgerichts Zürich (HG220030-O vom 21. August 2024) verneinte dieses die Passivlegitimation einer Suchmaschine, unter Hinweis auf den fehlenden Kausalzusammenhang: Die persönlichkeitsverletzenden Artikel konnten nur über die Suchmaschine gefunden werden, wenn der Name der Klägerin zusammen mit einem weiteren, den Artikel identifizierenden Stichwort eingegeben wurde. Die Suchmaschine machte somit die Inhalte nur Nutzern zugänglich, die die Artikel schon kannten. Damit fehlte ein erforderlicher Kausalzusammenhang zwischen der Handlung der beklagten Suchmaschine und der Rufschädigung, weshalb keine Mitwirkung an der Persönlichkeitsverletzung vorlag.
Und wie ist das bei Chatbots?
Was bedeutet dieses durch das Bundesgericht und Handelsgericht definierte Verständnis des Kausalzusammenhangs zwischen Handlung und Persönlichkeitsverletzung für Chatbots?
Es gibt meines Erachtens drei Kategorien von Persönlichkeitsverletzungen, die aus einer Recherche mit einem Chatbot entstehen können und für die der Betreiber des Chatbots belangt werden kann: Erstens, ähnlich wie bei Suchmaschinen, kann der Betreiber eines Chatbots die Persönlichkeitsrechte Dritter verletzen, indem sein Chatbot Links zu persönlichkeitsverletzenden Inhalten bereitstellt. Zweitens kann die direkte Wiedergabe, Verwendung oder Zusammenfassung von anderswo veröffentlichten rufschädigenden Inhalten ebenfalls eine Persönlichkeitsverletzung darstellen. Drittens kann die eigenständige Erstellung von persönlichkeitsverletzenden Inhalten die Voraussetzungen von Art. 28 ZGB erfüllen. In welchem der drei Fälle verletzt der Betreiber eines Chatbots die Persönlichkeitsrechte Dritter im Sinne der oben beschriebenen bundes- und handelsgerichtlichen Rechtsprechung?
Falls ein Chatbot selbständig persönlichkeitsverletzende Inhalte kreiert, ist es wahrscheinlich, dass sein Betreiber dafür belangt werden kann. Da der Chatbot mit der Kreation des rufschädigenden Inhaltes zu dessen Urheber wird, müsste seine Mitwirkung ohne Weiteres gegeben sein. Auch wenn der Chatbot zusammen mit einer Nutzerin persönlichkeitsverletzende Inhalte produziert, wirkt er in wesentlichem Umfang an der Verletzung mit. Allerdings muss dem Chatbot auch in dieser Hypothese mehr als eine rein ausführende Rolle zukommen, damit sein Betreiber dafür belangt werden kann. Sofern die persönlichkeitsverletzende Äusserung des Chatbots bereits in den Prompts der Nutzerin enthalten ist und der Chatbot diese nur in anderen Worten wiedergibt, müsste eine vom Chatbot ausgehende Persönlichkeitsverletzung zu verneinen sein.
Zusammengefasst ist die Anwendung der bundes- und handelsgerichtlichen Rechtsprechung, wonach der Kausalzusammenhang für die Mitwirkungshandlung nicht gegeben ist, wenn identifizierende Stichwörter nötig sind, um eine persönlichkeitsverletzende Publikation über eine Suchmaschine zu finden, bis zu einem gewissen Grad auch für Chatbots anwendbar. Auch hier muss der Richtwert sein, dass der Nutzerin die Rufschädigung durch die Nutzung des Chatbots bekannt wird. Lässt der Prompt darauf schliessen, dass die Nutzerin die Persönlichkeitsverletzung kannte (oder unter Umständen selbst veranlassen wollte), müssen eine relevante Mitwirkungshandlung des Chatbots und somit die Haftung seines Betreibers verneint werden.
Knackpunkt 1: Wer wusste was?
Die Gerichte werden sich bald mit der Frage auseinandersetzen müssen, wie weit Betreiber von KI-Tools für Persönlichkeitsverletzungen haften. Klar ist schon jetzt: Chatbots sind nicht einfach «neutrale Suchmaschinen». Wenn sie selbst Inhalte erfinden oder eigenständig verfälscht wiedergeben, ist die Schwelle zur Mitwirkung deutlich schneller erreicht. Entscheidend ist, ob die Nutzerin die Verletzung schon kannte oder bewusst provoziert hat – oder ob der Chatbot sie eigenständig generiert hat. Nur im zweiten Fall ist eine Haftung des Betreibers wahrscheinlich.
Knackpunkt 2: Hürden bei der Umsetzung
Selbst wenn eine betroffene Person juristisch gegen den Betreiber eines Chatbots vorgehen möchte, sind erhebliche praktische Schwierigkeiten zu erwarten. Zwar kann sie den Gerichtsstand am Ort der Verletzung wählen, in der Praxis steht sie jedoch meist einem grossen, international tätigen Konzern gegenüber, dessen Gesellschaftsstrukturen und rechtliche Zuständigkeiten komplex und schwer durchschaubar sind. Hinzu kommt, dass die Mitwirkungsbeiträge bei Chatbots weit weniger klar abgrenzbar sind als bei Suchmaschinen: Während dort ein lineares Verhältnis zwischen Suchanfrage und Trefferliste besteht, hängt die Antwort eines Chatbots stark von Faktoren wie Promptgestaltung, Gesprächsverlauf oder internen Systemeinstellungen ab. Dies erschwert die Nachweisbarkeit, welche konkrete Handlung des Chatbots tatsächlich zur Persönlichkeitsverletzung durch ihren Betreiber geführt hat.
Fazit
Mit dem Einsatz von KI-gestützten Chatbots verschieben sich die bisherigen Grenzen des Persönlichkeitsrechtsschutzes. Während bei Suchmaschinen die Rolle als «neutraler Vermittler» überwiegt, können Chatbots durch eigenständige Generierung von Inhalten zur Quelle neuer Persönlichkeitsverletzungen werden. Damit rückt die Haftung der Betreiber stärker in den Fokus – zugleich bleibt aber die praktische Durchsetzung für Betroffene aufgrund internationaler Strukturen und komplexer Kausalzusammenhänge eine erhebliche Herausforderung.