Smarte Waffen – das hört sich clever an. Aber dahinter stecken „Killerroboter“ Waffen, die selbst Ziele auswählen und feuern. Muss das nicht verboten werden? Darum ringen derzeit Diplomaten und Experten in Genf. Im November kommen die Vertragsstaaten zusammen. Doch eine Annäherung ist nicht in Sicht.

Wochenend-Magazin: Markus Brauer (mb)

Genf - Maschinen, die in den Krieg geschickt werden und selbst Ziele wählen und töten. Fortschritt oder Horrorvorstellung? Was wie ein Science Fiction-Film klingt, ist längst in der Entwicklung. „Tödliche autonomen Waffen“ – „Lethal Autonomous Weapons Systems“ – sind gemeint – auch Killerroboter genannt. Das können schießende Roboter sein, tödliche Drohnen, unbemannte U-Boote. Sie werden im Kampfeinsatz nicht von Menschen dirigiert, sondern entscheiden autonom, was ein legitimes Ziel ist und feuern tödliche Salven ab.

 

Seit Ende August ringen wieder Diplomaten aus Dutzenden Ländern in Genf um eine Annäherung in dem Hightech-Waffenstreit. Eine Entscheidung fällt aber frühestens Mitte im November, wenn die Vertragsstaaten in der Schweizer Metropole zusammenkommen.

„Waffen können nicht zwischen Freund und Feind unterscheiden“

Kritiker sind höchst alarmiert. „Waffen können nicht zwischen Freund und Feind unterscheiden und gehören auf den völkerrechtlichen Prüfstand“, sagt Thomas Küchenmeister von der deutschen Organisation Facing Finance, Mitglied der internationalen Kampagne gegen Killerroboter („Campaign to Stop Killer Robots“). Eine Entscheidung, Menschenleben auszulöschen, dürfe niemals einer Maschine überlassen werden.

Autonome Waffen werden durch die rasante Entwicklung Künstlicher Intelligenz möglich. Computer lernen anhand von eingefütterten Daten, wie ein Ziel aussieht, wie es sich bewegt, wann es angegriffen werden soll und zünden, ohne, dass ein Mensch an der Entscheidung noch beteiligt ist. Zu unterscheiden ist das von automatischen Waffen, etwa Patriot-Raketen. Die schießen zwar automatisch, aber das Ziel muss vorher von Menschen genau einprogrammiert werden.

„Es gibt eine Grauzone zwischen automatischen und autonomen Waffen“, sagt Michael Biontino, bis vor Kurzem deutscher Abrüstungsbotschafter in Genf. „Autonome Waffen machen die Zielerkennung selbst, sie haben keine Zielbibliothek gespeichert.“

„Angriffe streng auf militärische Ziele beschränken“

Es besteht kaum Zweifel, dass die USA, Russland, China, Israel, Südkorea und Großbritannien an solchen Systemen arbeiten. Sie existierten schon, sagt Neil Davison vom Internationalen Komitee vom Roten Kreuz (IKRK). Es wacht über die Einhaltung des humanitären Völkerrechts, die weltweit anerkannten Genfer Konventionen, und ist besorgt über die Entwicklung.

„Angriffe sind streng auf militärische Ziele zu beschränken“, heißt es in den Genfer Konventionen etwa. Können Maschinen das entscheiden? „Menschen müssen genügend Kontrolle behalten, um legale Entscheidungen zu treffen“, betont Davison.

Die Waffen der neuen Art werfen Unmengen Fragen auf: Können sie erkennen, ob ein Feind sich etwa gerade ergeben will oder verletzt ist? Ob die erkannte Person zwar eine Waffe hat, aber nicht Soldat sondern Jäger ist? Ob der erkannte Soldat womöglich ein Kamerad der eigenen Seite ist? Wer kann für Verbrechen mit Waffen, die kein Mensch mehr kontrolliert, zur Verantwortung gezogen werden?

Deutschland lehnt autonome Waffensysteme ab

„Die Linie der Bundesrepublik ist klar: für uns kann die Entscheidung über Leben und Tod nicht einer Maschine übertragen werden“, sagte Biontino im Frühjahr. Es steht sogar im Koalitionsvertrag: „Autonome Waffensysteme, die der Verfügung des Menschen entzogen sind, lehnen wir ab. Wir wollen sie weltweit ächten.“ Gemeinsam mit Frankreich hat Deutschland einen Verhaltenskodex vorgeschlagen, wonach alle heutigen und künftigen Waffensystem menschlicher Kontrolle unterliegen müssen.

Das sei ein zahnloser Tiger, sagt aber Thomas Küchenmeister. „Ein Verhaltenskodex ist nicht völkerrechtlich verbindlich.“ Die Kampagne gegen Killerroboter verlangt einen verbindlichen Vertrag. Aber viele Länder wollen sich in ihrer Waffenentwicklung nicht einschränken lassen. Sie legen bei den Verhandlungen keine Eile an den Tag. „Dieses Zeitspiel ist hochriskant, wenn man sieht, welcher Grad an Autonomie schon erreicht worden ist.“

Mehr als 2000 Wissenschaftler, die mit künstlicher Intelligenz arbeiten, haben solche Waffen verurteilt. „Es gibt eine moralische Komponente“, schrieben sie in einem Appell. „Wir dürfen Maschinen keine Entscheidung über Leben und Tod überlassen, für die andere – oder niemand – strafbar gemacht werden.“ USA besitzen größtes Arsenal an Kampfrobotern

Futuristische Visionen sind bereits Wirklichkeit

Kampfroboter sind unbemannte, ferngelenkte oder semiautonome (teilselbstständige) Systeme, die zur Beobachtung, Aufklärung, Minenräumung und Bekämpfung militärischer Ziele dienen. 1971 unternahmen die USA erste erfolgreiche Tests mit bewaffneten Drohnen, doch erst 2001 kamen sie in Afghanistan zum Einsatz. Die US-Streitkräfte verfügen heute über das größte und modernste Arsenal an Robotern, darunter ferngesteuerte Flugobjekte und Bodenfahrzeuge, die mit automatischen Waffen oder Raketen ausgestattet sind.

Anders als menschliche Soldaten kennen Roboter keine Furcht, werden niemals müde, kämpfen ohne Skrupel und Angst vor dem eigenen Exitus. Der amerikanische Politikwissenschaftler Peter W. Singer, einer der führenden Experten auf dem Gebiet der automatisierten Kriegsführung, ist überzeugt: Das 5000 Jahre alte Monopol des Menschen, im Krieg zu kämpfen, bricht zusammen. Künftige Kriege werden von Maschinen bestimmt. „Wenn die Menschen Krieg als etwas ansehen, das sie nichts kostet, sind sie eher bereit, ihn zu führen.“

Neuer Rüstungswettlauf

Für Militärs ist die Vision eines Krieges ohne Verluste an eigenen Truppen verlockend: Maschinen können beliebig eingesetzt und ersetzt werden, ohne dass sich in der Heimat beim Anblick von Leichensäcken öffentlicher Protest regt.

Friedensforscher wie Noel Sharkey, Experte für künstliche Intelligenz und Robotik an der Universität Sheffield, und Jürgen Altmann, Physiker an der TU Dortmund dagegen fürchten, dass der wachsende Roboter-Einsatz das internationale Menschenrecht unterminiert, neue Kriege heraufbeschwören und ein neuer Rüstungswettlauf angeheizt werden könnte.

Schon heute setzen viele Staaten Militärroboter ein. Bei den meisten Robotern handelt es sich um unbewaffnete Systeme: Raupenfahrzeuge, kaum größer als ein Gokart, die Bomben entschärfen oder zur Aufklärung eingesetzt werden, sowie unbemannte Flugkörper.

USA sind führend bei Militär-Robotik

Das US-Militär verfügt über das größte und modernste Arsenal an Robotern, darunter Bodenfahrzeuge wie der Talon Swords oder die Weiterentwicklung Maars, die mit automatischen Waffen oder Raketen ausgestattet werden können. Laufroboter wie Spot, der so groß ist wie ein Rottweiler, soll zur Aufklärung in gefährlichen Gelände eingesetzt werden. Systeme wie „Locust“ und „Coyote“ sind Mini-Drohnen, die wie ein Schwarm Heuschrecken über Gegner herfallen und sie autonom bekämpfen sollen.

Neben den USA sind Russland, China und Israel besonders ambitioniert auf dem Gebiet der automatisierten Kriegsführung. Ungeachtet der technischen Schwierigkeiten, Systeme mit künstlicher Intelligenz und Moralkodex zu entwickeln, geht das US-Verteidigungsministerium davon aus, dass die globale Rüstungsdynamik innerhalb der nächsten 30 Jahre autonom feuernde Roboter notwendig macht.