Mit einem Menschen zu plaudern, fällt einer Maschine schwer. Auf einer Stuttgarter Tagung bringen Forscher Avataren trotzdem die Kniffe der menschlichen Kommunikation bei. In der vernetzten Welt müssen auch Maschinen miteinander reden können.

Stuttgart - Ein kluger Avatar wie Max, der sich mit Menschen unterhalten kann, braucht einen Mediator. Nicht etwa, weil er sich oft mit seinen Gesprächspartnern streiten würde, sondern weil sich manchmal seine eigenen Ziele widersprechen. Wenn ihm jemand „Stop!“ zuruft, muss der Mediator schlichten, denn in Max’ Computerhirn streiten sich dann zwei Ziele: die Absicht, rasch Folge zu leisten, und die Absicht, den begonnenen Satz zu Ende zu sprechen. Der Mediator achtet darauf, wie laut „Stop!“ gerufen wurde und welches Gesicht der Rufer gemacht hat.

 

Seit 14 Jahren lernt Max hinzu. Auf einem Flur der Uni Bielefeld begrüßt er alle, die vorbeikommen, und im Heinz-Nixdorf-Museum in Paderborn steht er den Gästen Rede und Antwort. „Wenn er mich um fünf Uhr am Nachmittag vorbeigehen sieht, wünscht er mir einen schönen Feierabend“, berichtet Ipke Wachsmuth. Wachsmuth erforscht in Bielefeld die künstliche Intelligenz und stellt Max zu Beginn einer Tagung der Universität Stuttgart vor. Bis Mittwoch geht es den rund 50 Teilnehmern darum, wie Maschinen untereinander und mit Menschen kooperieren. Das Konzept zur Konferenz, bei der Ingenieure und Philosophen aufeinandertreffen, war einer der Gewinner des hochschulinternen Wettbewerbs „Geist trifft Maschine“.

Alltägliches ist für Max oft schwierig

Im Alltag müssen Menschen schon heute oft mit Maschinen kommunizieren, so die Grundthese der Tagung, und der Trend ist ebenfalls klar: Wenn in modernen Fabriken und in intelligenten Stromnetzen die Maschinen miteinander vernetzt werden oder Autos einander vor Gefahren auf der Straße warnen sollen, dann werden neue Verfahren benötigt. Die Computer müssen sich untereinander abstimmen, und in Konfliktfällen muss jemand schlichten.

Wer aber die Grundlagen des menschlichen Miteinanders entschlüsseln will, um sie einer Maschine beizubringen, stellt bald fest, dass gerade die alltäglichsten Dinge die kompliziertesten sind. Wachsmuth geht es zum Beispiel darum, gemeinsam mit Max ein Spielzeugmodell zusammenzubauen. Dazu stellt er sich mit einer 3-D-Brille in eine sogenannte Cave – einen Raum, auf dessen Wände die dreidimensionalen Bilder projiziert werden. Brille und Handschuhe sind mit Sensoren bestückt, damit Max erkennt, worauf man zeigt und wohin man schaut. Er soll folgen können, wenn man ihn nun bittet, dieses und jenes Bauteil miteinander zu verschrauben.

Max lernt derzeit, seine Aufmerksamkeit gemeinsam mit seinem Gegenüber auf ein Objekt zu richten – beispielsweise indem der eine den anderen darauf hinweist: „Schau mal hier!“ Schon das ist für einen Avatar ganz schön aufwendig. Wachsmuth wirft eine Reihe von langen Programmierzeilen auf die Leinwand. Wenn sich zwei Menschen gemeinsam einer Sache widmen, dann müssen sie nicht nur beide die Absicht haben, dies zu tun, sondern auch wissen, dass sie beide diese Absicht haben – und wissen, dass der andere das auch weiß. Nur so kann man das gemeinsame Betrachten eines Objekts von einer Situation unterscheiden, wo beide nur zufällig dasselbe Objekt anschauen. Der Philosoph Olle Blomberg von der Universität Edinburgh fragt sich in seinem Vortrag jedoch, ob das gemeinsame Wissen von den Absichten des jeweils anderen wirklich notwendig ist.

Max kann auch beleidigt sein

Sind philosophische Analysen nicht weit von der praktischen Anwendung entfernt? „Das finde ich nicht“, sagt Catrin Misselhorn. Sie hat als Philosophin gemeinsam mit dem Ingenieur Frank Allgöwer die Tagung organisiert. Philosophen untersuchen beispielsweise, wie es sein kann, dass Menschen einen gemeinsamen Entschluss fassen, und genau diese Analysen werden benötigt, wenn man einen Avatar menschlich erscheinen lassen will.

In ihrem Vortrag wird Misselhorn heute der Frage nachgehen, welche Emotionen Avatare in Menschen auslösen. Sie warnt davor, sie so zu konstruieren, dass sie Mitleid erregen – denn Mitleid weckt bei Menschen das moralische Empfinden. Auch Max zeigt deutlich Gefühl: Auf eine Beleidigung hin sagt er, dass er sich das nicht bieten lassen müsse, und geht aus dem Bild.