Der Wirtschaftsinformatiker Oliver Bendel ist dagegen, Autos nur von Software steuern zu lassen. Autonomes Fahren kann er sich auf der Autobahn vorstellen – in der City hingegen nicht.

Wissen/Gesundheit: Werner Ludwig (lud)

Stuttgart – Das Thema autonomes Fahren treibt Autohersteller und Internetkonzerne gleichermaßen um. Manche glauben, dass der Mensch das Steuer künftig nicht nur auf der Autobahn, sondern auch im dichten Stadtverkehr loslassen und sich derweil mit anderen Dingen beschäftigen kann. Der gebürtige Ulmer Oliver Bendel, Professor für Wirtschaftsinformatik an der Fachhochschule Nordwestschweiz, warnt indes vor zu großem Optimismus.

 
Herr Bendel, der Unfall mit einem Google-Roboterauto hat die Debatte über die gesellschaftlichen Konsequenzen derartiger Fahrzeuge neu entfacht. Sind unser Werte- und unser Rechtssystem ausreichend auf autonom fahrende Autos vorbereitet?
Ich denke, weder noch. Der Unfall mit dem Google-Auto ging zwar glimpflich aus, es sind aber auch Situationen denkbar, in denen ein autonom fahrendes Auto über Menschenleben entscheiden muss. Es könnte beim Versagen der Bremsen zum Beispiel vor der Wahl stehen, entweder einen Radfahrer über den Haufen zu fahren oder in eine Gruppe spielender Kinder zu rasen. Das wäre eine ähnliche Situation wie beim sogenannten Trolley-Problem.
Wie sieht das aus?
Eine Straßenbahn fährt auf fünf Menschen zu, die sich auf den Gleisen befinden. Die Versuchsperson hat aber die Möglichkeit, die Bahn durch Betätigung einer Weiche auf ein anderes Gleis zu lenken, auf dem nur ein Mensch liegt. Dann gibt es statt fünf Toten nur einen. In einer anderen Variante kann man die fünf Personen auf den Gleisen retten, indem man einen dicken Mann vor die Bahn stößt, der diese aufhält, dabei aber selbst ums Leben kommt.
Das Ergebnis ist in beiden Fällen gleich: statt fünf Menschen stirbt nur einer.
Richtig. Und trotzdem ist es von der Handlung her etwas ganz anderes, einen Menschen aktiv auf die Gleise zu stoßen, als nur eine Weiche umzustellen.
Für ein autonomes Auto, das darauf programmiert wäre, so wenig Menschen wie möglich zu töten, würde es keinen Unterschied machen.
Die Frage ist doch, von welchen ethischen Grundsätzen wir uns bei der Programmierung leiten lassen. Natürlich könnte man dem Auto beibringen, einfach durchzuzählen und sich dann für den geringstmöglichen Schaden zu entscheiden. Das wäre ein utilitaristischer Ansatz, der allein auf Nützlichkeitserwägungen beruht. Aber in Kontinentaleuropa ist diese Denkweise den meisten Menschen fremd. Uns tut auch der eine Mann auf dem Gleis leid, der sterben muss – oder erst recht der dicke Mann, den wir aktiv töten müssten, um die anderen zu retten. Dahinter steht die Vorstellung, dass sich der Wert eines Menschenlebens nicht zur Rechengröße degradieren lässt.
Wie sollte man das Fahrzeug dann programmieren?
Man müsste ihm die Pflicht auferlegen, möglichst gar niemanden zu töten – was allerdings in der Praxis kaum möglich ist. Deshalb haben wir ja solche Dilemmata. Die Alternative wäre, dem Auto eine Referenzperson zur Seite zu stellen – idealerweise den Besitzer oder (Mit-)Fahrer –, nach dessen Wertesystem sich das Auto richten könnte. Optimal ist das aber auch nicht.
Es gibt auch die Vorstellung, dass bei einem autonomen Auto jeder seinen Fahrstil wählen kann – so wie man bereits heute auf eine sportlichere Motor- und Fahrwerksabstimmung umschalten kann.
Genau. Man könnte verschiedene Charaktere anbieten – etwa einen eher defensiven oder auch einen aggressiveren Fahrstil. Das Auto als selbstlernendes System könnte auch das Verhalten anderer Verkehrsteilnehmer beobachten und daraus Schlüsse ziehen.
Lernfähige Maschinen können sich aber auch in eine ungünstige Richtung entwickeln. Ich denke da an den Bordcomputer HAL in „2001 – Odyssee im Weltraum“, der sich gegen die Besatzung wendet.
Lernende Systeme bergen in der Tat Risiken. Wenn das autonome Auto zum Beispiel in einer Gegend unterwegs ist, in der es jede Menge Verkehrsrowdys gibt, die über rote Ampeln fahren, kommt es irgendwann zu dem Schluss, dass das normal ist, und fährt genauso.
Müssen die Autos dann zur Nachschulung?
Das wäre eine Möglichkeit. Es gibt auch den Ansatz, dass man Roboter erzieht wie Kinder. Wenn ein Kind sieht, dass eine Frau bei Rot über die Fußgängerampel geht, ist es wichtig, dass ein Erwachsener dabei ist, der ihm sagt: „So wie die darfst du es nicht machen.“ In ähnlicher Weise müsste man einem lernfähigen autonomen Auto die Dinge erklären, die es im Verkehr mitbekommt. Damit sind wir aber schon sehr weit in der Zukunft.
Manche fürchten die Herrschaft der Maschinen über die Menschen.
Dass Maschinen wirklich die Herrschaft übernehmen und uns versklaven, halte ich für Science-Fiction. Wir sollten aber wissen, dass selbstlernende Maschinen fast zwangsläufig auch Dinge lernen, die nicht wünschenswert sind. Generell raten Experten für künstliche Intelligenz dazu, nur Maschinen zu bauen, deren Entscheidungen voraussehbar und überschaubar sind – aus gutem Grund. Wenn die Maschine etwas tut, von dem wir sagen: „Keine Ahnung, wie sie dazu kommt – sie hat jetzt halt diesen Menschen totgefahren“, dann wird es heikel.
Unterschätzen die Autohersteller vor lauter Begeisterung über autonome Vehikel die Komplexität des Autofahrens in dicht bevölkerten Städten?
Absolut. Ich war neulich in Holland – da hat man schon als Fußgänger die größten Probleme, weil von überallher Fahrräder angeschossen kommen. Das ist auch für ein Roboterauto kaum zu überblicken. Was das autonome Fahren in der Stadt angeht, sind die Autohersteller meiner Meinung nach zu  optimistisch. Autonome Autos können auch gehackt oder getäuscht werden. Man könnte ihnen zum Beispiel vorspiegeln, dass sich ein Hindernis auf der Straße befindet – oder eben keines.
So richtig optimistisch klingt das nicht.
Ich bin nicht gegen das autonome Auto an sich. Ich bin ja selbst Maschinenethiker und konzipiere Maschinen, die bestimmte moralische Entscheidungen treffen. Ich bin nur der Meinung, dass das Auto eigentlich kein geeignetes System für die praktische Anwendung ist – zumindest, wenn es dabei um Menschenleben geht. Ich beschäftige mich stattdessen mit der Frage, wie man Kollisionen mit Tieren vermeiden kann. Auch das ist ja ein ethisches Problem. Ich frage mich zum Beispiel, ob man nicht Autos bauen könnte, die vor dem letzten Frosch seiner Art bremsen – natürlich nur, wenn dahinter keiner fährt. Ich halte es für schwierig und kaum akzeptabel, dass Maschinen über Menschenleben entscheiden.
Und außerhalb der großen Städte?
Da kann ich mir autonome Autos sehr gut vorstellen – etwa auf der Autobahn. Dort ist  die Zahl möglicher unerwarteter Reize sehr gering. Ich habe das neulich in einem Tesla mit Autopilot ausprobiert – und gequietscht vor Vergnügen. Ich bin allerdings auch kein Autofetischist, der unbedingt selber am Steuer sitzen muss.
Google arbeitet bereits an einem Auto ohne Lenkrad und Pedale.
Das halte ich für Unsinn. Da kommen ganz klar die Nerds in der Entwicklungsabteilung durch. Ich glaube eher an hybride Lösungen, bei denen der Mensch in bestimmten Situationen auch noch selber eingreifen kann. Und dazu braucht er Pedale und ein Lenkrad.
Wie sind die deutschen Autohersteller im Wettrennen mit Google & Co. aufgestellt?
Mich ärgert, dass beim Thema des autonomen Fahrens Google immer so gehypt wird. Auch die deutschen Autohersteller sind sehr weit. Das ist ein Milliardenmarkt, auf dem Geld nicht nur mit Autos verdient wird, sondern auch mit Infrastruktur und Dienstleistungen. Das macht den einen oder anderen vielleicht etwas zu euphorisch. Man darf bei Google auch nicht vergessen, dass es denen vor allem um Daten, Daten und nochmals Daten geht.
Neben ethisch-moralischen Fragen werfen autonome Autos rechtliche Fragen auf. Derzeit wäre bei einem Unfall, den der Autopilot verursacht, weiterhin der (Mit-)Fahrer verantwortlich. Viele fordern, dass der Hersteller in diesem Fall die Haftung übernimmt.
Auch bei einer Gesetzesänderung werden die Autobauer raffinierte Klauseln in die AGBs schreiben oder mit anderen Tricks arbeiten. Schon jetzt muss ich bei einem Auto mit Einparkautomatik den Parkvorgang selbst in Gang setzen. Ich muss je nach Automodell am Lenkrad bleiben oder Gas geben. Dann kann der Hersteller bei einem Rempler sagen: „Der Herr Bendel ist ja selber gefahren.“ Vorstellbar wäre aber auch eine Haftungsverteilung. In diesem Zusammenhang finde ich es bemerkenswert, dass Google eine Mitschuld an der Kollision seines Autos mit einem Bus eingeräumt hat.
Sie halten es für falsch, autonome Autos nur nach Nützlichkeitserwägungen zu steuern – nach dem Motto: Wie überleben die meisten Menschen, und sind das auch die richtigen? Doch was ist die Alternative? Ein Zufallsgenerator, der entscheidet, ob das Auto bei einem unvermeidbaren Unfall den Fahrer oder eine Gruppe spielender Kinder töten soll?
Ein Zufallsgenerator wäre zynisch. Mein Vorschlag wäre, Räume und Zeiten zu schaffen, in denen kaum Unfälle passieren können. Man könnte zum Beispiel spezielle Fahrstreifen für autonom fahrende Autos einrichten. Man könnte sie auch nur zu bestimmten Zeiten fahren lassen. Zudem muss es vielleicht Orte geben, an denen autonome Autos verboten sind – etwa im dichten Stadtverkehr.
Auch ein Mensch entscheidet in   kritischen Situationen oft falsch.
Das stimmt. Er hat aber neben Erfahrung und Praxis auch Intuition – im Gegensatz zu einer Maschine. Er kann in sehr kurzer Zeit etwas tun – vielleicht das Richtige, vielleicht das Falsche. In dem Moment trifft er aber keine moralische Entscheidung, sondern handelt instinktiv. Wenn etwas oder jemand auf die Fahrbahn springt, weicht er reflexartig aus – oder eben nicht.
Eine Maschine könnte in jedem Fall das kleinere Übel wählen.
Aber was wären die Konsequenzen? Es besteht kein Zweifel daran, dass man die Zahl der Unfalltoten mit autonomen Fahrzeugen senken könnte. Doch dann passiert eben doch mal ein Unfall, und die Polizei teilt den Eltern mit, dass ein Auto – natürlich nach strengen, von der Gesellschaft festgelegten Regeln – ihr Kind überfahren hat, weil das unter den möglichen Optionen das kleinste Übel war. Die Eltern wären alleingelassen und könnten ihre Wut nicht mal bei dem Schuldigen abladen, der den Unfall verursacht hat.
Kann man mit autonomen Autos Verkehr vermeiden?
Das autonome Fahren könnte eher dazu führen, dass es deutlich mehr Verkehr gibt, weil die Nutzung von Autos noch bequemer wird. Irgendwann könnten Sie Ihr Auto vielleicht eine Pizza holen lassen, während Sie zu Hause weiter fernsehen. Andererseits könnte man mit autonomen Systemen rund um die Uhr öffentliche Verkehrsmittel zu vertretbaren Kosten anbieten.
Werden Fahrzeuge jemals ganz von alleine fahren?
Einen komplett autonomen Verkehr, wie ihn Isaac Asimov bereits 1952 geschildert hat, halte ich für eine Vision, die wohl nie Realität wird. Da verbietet die Polizei sogar, dass der Fahrer selber eingreift, weil er das Gesamtsystem stören könnte. Falls es doch so weit kommen sollte, könnte es Leute geben, die das boykottieren oder sogar eine Gegenbewegung in Gang bringen – quasi als neue Maschinenstürmer. Viel realistischer ist aber erst mal der Ausbau des teilautonomen Fahrens mit Fahrerassistenzsystemen wie Brems- oder Spurassistenten. Die übernehmen ja jetzt schon teilweise selbstständige Entscheidungen.
Autonome Roboter sollen auch die Industrie oder die Pflegebranche revolutionieren. Wie sind hier die Perspektiven?
Bei solchen Anwendungen sind die Rahmenbedingungen überschaubarer als im Straßenverkehr, und das Ganze läuft langsamer ab. In der Industrie 4.0 arbeiten Roboter und Menschen in Kooperationszellen zusammen. Das funktioniert ohne Probleme. Die Roboter müssen vor allem wissen, dass sie einen Menschen nur sanft berühren dürfen. Auch Roboter, die sich innerhalb der Fabrik bewegen, stoppen zuverlässig, wenn man ihnen ins Gehege kommt. Bei Pflege- und Therapierobotern stellen sich andere ethische Fragen. Viele Patienten hätten lieber eine Ansprechperson aus Fleisch und Blut oder ein Haustier. Ich finde es am sinnvollsten, Pflegeroboter zusammen mit Menschen im Team einzusetzen. Der Pflegeroboter kann die Mitarbeiter bei schweren körperlichen Tätigkeiten entlasten – etwa beim Umbetten von Patienten. Ihn alleine hantieren zu lassen, halte ich für keine gute Idee.