Künstliche Intelligenz ist eine große Verheißung – mit gewaltigen, unheilvollen Nebenwirkungen. Sie braucht deutlich mehr Kontrolle als bisher, wie ein Beispiel aus Tübingen zeigt.

Politik/Baden-Württemberg: Rainer Pörtner (pö)

Martin Bernklau hielt sich für einen unbescholtenen Bürger. Bis er eines Tages seinen Namen in die Suchmaske des „Copiloten“ eingab – das ist die mit Künstlicher Intelligenz ausgestattete Suchmaschine von Microsoft. Der „Copilot“ teilte Bernklau mit, dass er ein Familienvater aus dem Nordschwarzwald sei, ein drogensüchtiger Ausbrecher, der seine Nichte missbraucht und viele weitere Verbrechen verübt habe.

 

Keine der Untaten hat er tatsächlich begangen. Bernklau lebt in Tübingen und berichtet als Journalist immer wieder über Gerichtsprozesse. Die Suchmaschine hatte ihm einfach die Taten derjenigen, über die er Zeitungsberichte geschrieben hatte, als eigene Taten zugeschrieben. Die KI machte aus dem journalistischen Beobachter von Verbrechen den Verbrecher selbst.

Agieren in einem weitgehend rechtsfreien Raum

Bernklaus Versuche, juristischen Schutz gegen diese ehrabschneidende Darstellung des „Copiloten“ zu erhalten, liefen ins Leere, wie er dem „Schwäbischen Tagblatt“ berichtete. Zwar seien alle Angaben der KI „nachweislich unwahr“, teilte ihm die Staatsanwaltschaft Tübingen mit. Das angezeigte Verhalten erfülle allerdings „keinen Straftatbestand. Dies schon deshalb, weil als Urheber der Behauptungen keine reale Person in Betracht kommt.“

Über komplizierte Umwege konnte Bernklau erreichen, dass Microsoft in seinem Fall die Parameter der Systeme so änderte, dass die Falschdarstellungen heute nicht mehr erscheinen. Und vielleicht handelt es sich um einen extremen Fall.

Aber er macht ein sehr grundlegendes, globales Problem deutlich: Die Tech-Konzerne haben die Künstliche Intelligenz von der Kette gelassen ohne hinreichende Selbstkontrolle und ohne wirksame rechtliche Kontrolle von außen. Sie agieren bisher in einem weitgehend rechtsfreien Raum.

„Halluzinierende“ Programme

Ich spreche hier von der generativen KI, die aktiv Texte, Bilder, Töne und Sprache erstellt. Diese KI-Anwendungen denken (noch) nicht wie ein Mensch. Sie stellen nur aus einem vorgegebenen Material nach Wahrscheinlichkeiten neue Texte, Filme oder Audiobotschaften zusammen.

Zumeist ist ihnen noch ein Faktor eingebaut, der zu einem gewissen Prozentsatz immer andere Ergebnisse auswirft. Deshalb wirken sie kreativ und menschenähnlich. Aber sie verstehen den Kontext der von ihnen produzierten Wörter und Bilder nicht. Mit einem KI-Programm wie ChatGPT kann man sich über jedes erdenkliche Thema austauschen. In sehr vielen Fällen wird die Auskunft, die ChatGPT gibt, richtig sein, manchmal aber auch nicht. Man weiß nie, wann es falsch sein wird, warum die KI fehlerhaft kombiniert hat oder gar „halluziniert“.

Erste KI-Regeln durch die Europäische Union

Künstliche Intelligenz hat ein riesiges positives wie negatives Potenzial. Aber sie wurde ungehemmt auf die Menschheit losgelassen, ohne dass irgendjemand den Hauch einer Idee hätte, wie die potenziellen Risiken in den Griff zu bekommen wären. Das ist ungefähr so, als würde man sich in einen Formel-I-Boliden setzen und das Gaspedal voll durchdrücken, obwohl das Auto vom Hersteller ohne Bremse ausgeliefert wurde.

KI ist kein Maschinenwerk, kein Geschenk von Außerirdischen. Es sind Menschen, die sie unter die Menschen bringen. Sie müssen für die Folgen ihres Tuns verantwortlich gemacht werden. So wie das überall sonst auch ist im Leben.

Anläufe für rechtliche Regelungen gibt es. Im Mai hat die Europäische Union das weltweit erste Gesetz zur Regulierung von KI verabschiedet. Das setzt Maßstäbe, weil es KI nicht in einem Paragrafen-Klein-Klein detailliert regeln will, sondern einen risikobasierten Ansatz verfolgt: Je höher das Risiko bei der KI-Anwendung eingeschätzt wird, desto strenger sind die Vorgaben. Die Regeln greifen allerdings erst ab Frühjahr 2026.

Kalifornien prescht vor

Die USA hinken hinterher, eine nationale Gesetzgebung gibt es hier nicht. Immerhin prescht Kalifornien jetzt vor – der Bundesstaat, in dem große KI-Unternehmen und -Anwender wie Google, Meta oder OpenAI ihren Sitz haben. Beide Kammern des Parlaments haben ein Gesetz verabschiedet, nach dem große Sprachmodelle wie ChatGPT künftig vor Veröffentlichung einen Sicherheitstest bestehen müssen. Und die KI-Entwickler sollen für schwere Schäden, die durch die Nutzung ihrer Modelle entstehen, haftbar gemacht werden.

Das klingt vielversprechend. Jetzt muss nur noch Kaliforniens Gouverneur Gavin Newsom seine Unterschrift unter das Gesetz setzen. Der allerdings steht unter starkem Druck mächtiger KI-Lobbyisten, die ihn davon abzubringen versuchen.