Künstliche Intelligenz Viele offene Rechtsfragen bei ChatGPT

Guck mal, wer da schreibt: ChatGPT im Einsatz. Foto: dpa/Jessica Lichetzki

Der Chatbot des US-Unternehmens Open AI beschäftigt auch Juristen. Was Nutzer über die rechtlichen Rahmenbedingungen wissen sollten.

Wissen/Gesundheit: Werner Ludwig (lud)

ChatGPT schreibt mit Hilfe Künstlicher Intelligenz (KI) Texte und wird längst auch in Unternehmen und Institutionen genutzt. Das führt zu rechtlichen Fragen, auf die es teilweise noch keine eindeutigen Antworten gibt. Ein Überblick.

 

Wer hat das Urheberrecht für Texte, die ein KI-Chatbot verfasst hat? Texte, die das System produziert, sind bislang nicht urheberrechtlich geschützt. „Das deutsche Urheberrecht schützt nur persönliche geistige Schöpfungen“, sagt Julia Dönch, Partnerin bei der Wirtschaftskanzlei CMS. Und solche Werke können per se nur von Menschen geschaffen werden.

Auch der Hersteller der Software kann bis jetzt kein Urheberrecht an den Texten geltend machen. Dönch hält es aber für möglich, dass es hier angesichts des rasanten Fortschritts Änderungen geben könnte. „Man kann sich schon fragen, ob es richtig ist, daran festzuhalten, dass der Schöpfer einer geistigen Leistung immer nur ein Mensch sein kann.“ Vielleicht müsse künftig anerkannt werden, dass bis zu einem gewissen Grad auch Maschinen solche Leistungen erbringen können.

Was gilt für die Texte, mit denen KI-Chatbots trainiert werden? Glaubt man den Entwicklern, verwendet ChatGPT keine kompletten Textpassagen aus den Trainingsdaten. Stattdessen berechne die Software auf Basis dieser Texte nur, welches Wort mit der größten Wahrscheinlichkeit als nächstes kommt. Dönch rät dennoch zur Vorsicht. Man könne Stand jetzt nicht mit hundertprozentiger Sicherheit ausschließen, dass ein von ChatGPT produzierter Text nur eine leicht abgewandelte Version eines bereits existierenden Textes sei. „Wenn am Ende eine Übernahme ganzer Textpassagen nachweisbar wäre, hätte man ein urheberrechtliches Problem“, sagt die Juristin. Dann drohten Unterlassungs-, Beseitigungs- und Schadenersatzansprüche.

Können Autoren verhindern, dass ihre Texte als Ausgangsmaterial für Chatbots verwendet werden? Ja. Dazu müssen die Texte mit einem maschinenlesbaren Hinweis versehen werden, der eine Verwertung für solche Zwecke untersagt. Allerdings ist der Nachweis einer Nutzung extrem schwierig, wenn die Systeme ihre Quellen nicht nennen. Google hat für seinen Chatbot Bard zwar angekündigt, Quellen angeben zu wollen, doch auch dann könnte es für Autoren zu aufwendig sein, ihre Ansprüche geltend zu machen. „Da bliebe für einzelne Textstellen meist so wenig hängen, dass sich eine Individualabrechnung gar nicht lohnen könnte“, meint Dönch. Die Juristin könnte sich stattdessen ein pauschales Vergütungssystem vorstellen. Chatbot-Anbieter müssten dann eine Nutzungsgebühr entrichten, die unter den Autoren online verfügbarer Texte verteilt würde. Ähnliche Modelle gibt es bereits bei Musikrechten oder Pressetexten.

Wie nutzen Unternehmen Chatbots, und was ist dabei zu beachten? CMS-Partnerin Dönch berichtet, dass ChatGPT quer über alle Branchen schon recht intensiv genutzt wird. Häufig würden mithilfe der Software Routinearbeiten erledigt – etwa die Erstellung von Besprechungsprotokollen. Ein weiteres Einsatzgebiet seien interne Informationssysteme, über die Beschäftigte Informationen aus anderen Abteilungen abrufen könnten. Da Chatbots teilweise Unsinn verzapfen, sei es aber wichtig, so entstandene Texte kritisch zu prüfen. „Sie sollten auch intern nicht ohne Kenntlichmachung verwendet werden“, empfiehlt Dönch.

Deutlich höher seien die rechtlichen Anforderungen, wenn Texte von KI-Chatbots das Unternehmen verlassen. Bislang spiele das aber kaum eine Rolle. Dönch warnt auch davor, sensible Daten oder Geschäftsgeheimnisse in das Eingabefeld von ChatGPT zu tippen. Bislang sei unklar, inwieweit die Eingaben inhaltlich verwertet werden. Als Beispiel nennt sie eine neue Rezeptur für ein chemisches Produkt. In so einem Fall sei nicht ausgeschlossen, dass die Rezeptur als Antwort ausgegeben wird, wenn ein anderes Unternehmen dem System eine passende Frage stellt.

Wer haftet für die Fehler von Chatbots und anderen KI-basierten Systemen? „Wenn ich mir falsche Aussagen zu eigen mache, die eine KI generiert hat, bin ich als Autor, der die entsprechenden Passagen übernimmt, dafür verantwortlich“, sagt Dönch. Allerdings könne sich die Haftungsverteilung mit der wachsenden Verbreitung solcher Systeme auch ändern. Beim KI-basierten autonomen Fahren gibt es in bestimmten Fällen bereits eine Mithaftung des Herstellers – etwa wenn ein Unfall passiert, während das Fahrzeug im autonomen Modus unterwegs war.

Ähnliche Haftungsfragen stellen sich bei der Nutzung von KI-Systemen für medizinische Diagnosen. Nach derzeitiger Rechtslage liegt auch hier die Verantwortung bei dem Arzt, der solche Methoden nutzt. Da die Systeme teilweise schon bessere Diagnosen als menschliche Experten stellen, könnten Ärzte nach einer Fehldiagnose in Zukunft aber auch dafür belangt werden, dass sie keine KI eingesetzt haben, schätzt Dönch.

Kann die Gesetzgebung mit dem rasanten Fortschritt in der KI mithalten? CMS-Partnerin Dönch bezweifelt das. Es gebe zwar einen Vorstoß auf EU-Ebene zur Produkthaftung für Künstliche Intelligenzen. Aber bisher sei das noch im Stadium eines Entwurfs.

Erschwert wird die Regulierung auch dadurch, dass man nicht so genau weiß, wie KI-Systeme eigentlich zu ihren Entscheidungen kommen. Die Forderung nach einer Offenlegung der entsprechenden Algorithmen sei aber kaum umsetzbar. „Die Firmen, die solche Systeme entwickeln, stehen ja im Wettbewerb“, sagt Dönch. Würden sie gezwungen, ihre digitalen Geschäftsgeheimnisse preiszugeben, könnte das Innovationen im KI-Sektor behindern. Und das könne letztlich auch nicht im Interesse der Politik liegen, meint die Juristin. Denn Künstliche Intelligenz biete trotz der offenen Rechtsfragen viele Chancen, „die wir dringend nutzen sollten“.

Weitere Themen

Weitere Artikel zu ChatGPT