Entwickler wollen Maschinen soziales Verhalten einprogrammieren. Aber sind sie dann wirklich sozial? Und, wenn ja, was unterscheidet uns von ihnen? Ein Entwicklungspsychologe und eine Robotikerin diskutieren.

Berlin - Robotiker arbeiten daran, Maschinen sozial werden zu lassen. Nur so können sie unseren Alltag sinnvoll bereichern, so die Idee dahinter. Verena Hafner von der Humboldt-Universität Berlin lässt ihre Roboter nach einem ähnlichen Muster lernen wie Kinder: durch Beobachtung. Der Entwicklungpsychologe Markus Paulus von der Technischen Universität München betrachtet das skeptisch.

 
Herr Paulus, kann es so etwas wie „soziale Roboter“ überhaupt geben?
Paulus Wenn jemand einen Roboter als soziales Wesen behandelt, ist er natürlich für diese Person ein soziales Wesen. Wir können uns aber fragen, ob Roboter an sich soziale Wesen sind. Hier habe ich Zweifel.
Verena Hafners Roboter lernen Sozialverhalten nach einem ähnlichen Muster wie Kinder. Könnten sie sich dann nicht auch wie Menschen zu sozialen Wesen entwickeln?
Paulus Ich sehe einen zentralen Unterschied beim Lernen: Ein Kind will von sich aus explorieren und lernen. Was das Kind macht, ist kein einprogrammierter Ablauf.
Hafner Da würde ich widersprechen. Wir können einem Roboter durchaus intrinsische Motivation mitgeben, eine Art von Neugierde mit der Vorgabe: Wähle eine Aktion aus, von der du denkst, dass sie deinen Lernfortschritt maximieren wird. Wenn wir dem Roboter nur diese Vorgabe „sei neugierig“ geben, entstehen interessante Effekte. Am Anfang lernt er die einfachen Dinge, dann wird das langweilig, und der Roboter wendet sich schwierigeren Sachen zu.
Paulus Aber ist das wirklich mit dem Verhalten des Menschen vergleichbar? Einem großen Teil unseres Sozialverhaltens liegen zwar simple Motive zugrunde. Uns macht es zum Beispiel einfach Spaß, uns mit anderen auszutauschen. Aber diese Motive sind mit Emotionen verknüpft. Das ist ein zentraler Aspekt. Ich kann diesen inneren Antrieb beim Roboter simulieren. Ich kann ihm sagen: Tu so, als ob dir eine ähnliche Motivation zugrunde liegt. Aber das ist nicht wirklich das Gleiche. Für subjektive Emotion bedarf es eines sehr komplexen Nervensystems. Ich glaube nicht, dass man das nur annähernd simulieren kann.
Hafner Man hat bei Menschen doch noch gar nicht so richtig verstanden, wie Emotionen funktionieren. Es gibt kein Emotionsmodell.
Paulus Emotionen beinhalten aus Sicht einiger Emotionsforscher per Definition subjektives Empfinden. Was sollte das beim Roboter sein?
Aber wenn am Ende das Gleiche dabei herauskommt? Würde es die Emotion an sich infrage stellen, wenn ein Roboter perfekt passend emotional reagiert, so dass es nicht auffällt, dass es simuliert ist?
Paulus Selbst eine perfekte Simulation bleibt immer noch eine Simulation. Und ich glaube nicht, dass Roboter so etwas jemals können.
Hafner Es ist nicht ausgeschlossen. Man kann einen Roboter freilich nicht einfach programmieren, und dann verhält er sich sofort wie ein Mensch. Roboter müssen sich wie ein Mensch entwickeln, wachsen, mit der Umwelt interagieren. Nehmen Sie das Beispiel Bilderkennung. Sie funktioniert zwar schon gut, aber wenn der Roboter einen Stuhl sieht, versteht er noch nicht, was einen Stuhl ausmacht. Das weiß erst ein Roboter, der sich auf einen Stuhl setzen kann. Erfahrung kann man nicht durch eine Datenbank ersetzen. Unsere Roboter machen diese Erfahrungen, und sie sind zumindest die Grundlage für Intelligenz.
Paulus Kleine Inselbereiche intelligenten Verhaltens lassen sich so simulieren. Aber gerade wegen der Verkörperung, mit der Sie arbeiten, werden Menschen und Maschinen doch immer verschieden bleiben. Ein Roboter ist nicht so verletzlich wie ein Mensch, weil er sich nicht verliebt, weil seine Haut nicht brennt, wenn er eine Brennnessel berührt: Das alles sind unsere Erfahrungen. Es wird immer ein großer Unterschied bleiben, gerade weil unser Körper ein anderer ist.