Forscher versuchen, Homosexuelle maschinell zu outen. Ein in jeder Hinsicht problematisches Experiment, meint Eva Wolfnagel.

Stuttgart - Können Homosexuelle per automatischer Gesichtserkennung geoutet werden? Ist uns Kriminalität ins Gesicht geschrieben? Verschiedene wissenschaftliche Studien haben in den vergangenen Monaten scheinbar gute Ergebnisse darin erzielt, Gesichter mittels künstlicher Intelligenz bestimmten Eigenschaften zuzuordnen. Damit ist aber auch deutlich geworden, wie schnell die Technik missbraucht werden kann. Erst vorige Woche erregte ein Experiment von Michal Kosinski von der Stanford University Aufsehen, das angeblich Schwule und Lesben mit hoher Genauigkeit anhand ihrer Fotos erkennt. 81 Prozent aller schwulen Männer habe das System richtig erkannt, so Kosinski, und 74 Prozent aller lesbischen Frauen.

 

Die neuen Verfahren sind gut darin, Muster in Daten zu finden

Doch Vorsicht: Die Forscher hatten 35 000 Fotos einer Dating-Plattform benutzt und diese mitsamt der Selbstauskunft der Betroffenen zu ihrer sexuellen Orientierung einer künstlichen Intelligenz (KI) vorgelegt. Die neuen Verfahren des maschinellen Lernens sind besonders gut darin, Muster in Daten zu finden, allerdings suchen sie sich die Kriterien selbst aus, die – in diesem Fall – Menschen eher „homosexuell aussehen“ lassen. Es könnte also sein, dass der Gesichtserkennungssoftware Merkmale aufgefallen sind, die jene Bilder von Schwulen ebenfalls gemeinsam haben – beispielsweise ein Ohrring, eine besondere Brille oder Ähnliches. Bekannt ist das Beispiel einer KI, die Fotos von Pferden von denen anderer Tiere unterscheiden sollte. Das funktionierte erstaunlich gut – bis Forscher nachweisen konnten, dass sich die Software auf ein Label stützte, das die Fotos als aus einem Pferdeforum stammend markierte.

Zudem sind Erkennungsraten von 80 Prozent schon nicht mehr so spektakulär, wenn man weiß, dass für das Experiment jeweils ein zufälliges Foto aus der Gruppe Homosexueller und ein zufälliges aus der Gruppe Heterosexueller ausgesucht wurde: Würde man also den Zufall entscheiden lassen, würde dieser bereits eine Erkennungsrate von 50 Prozent erzielen, sagt Björn Christensen, Statistikprofessor von der Fachhochschule Kiel. „Der in der Studie beschriebene Wert ist also in dem Wertebereich zwischen 50 Prozent (Zufall) und 100 Prozent (perfekte Zuordnung) einzuordnen und nicht – wie man denken könnte – zwischen 0 und 100 Prozent.“

Ist Kriminalität im Gesicht zu erkennen?

Ähnlich verhält es sich mit einer Studie von chinesischen Forschern, die behaupteten, Kriminalität im Gesicht zu erkennen. Sie hatten ihre Software mit knapp 2000 Passfotos gefüttert, die Hälfte von ihnen waren verurteilte Straftäter. Ein neuronales Netz erkannte Kriminelle darin mit 89,5 Prozent Treffsicherheit. Doch möglicherweise stammten die Fotos der Verurteilten von einer anderen Kamera, so dass die KI bestimmte Eigenschaften wie einen leichten Farbstich als Merkmal annahm. Zudem verweisen Experten darauf, dass das Leben Spuren hinterlässt: Kriminelle stammen in der Regel aus ärmeren Verhältnissen, womöglich haben sie schlechter gepflegte Zähne oder Narben – auch das könnte die Software als Kriterium angenommen haben.

Solche Studien sollten also mit Skepsis betrachtet werden. Dessen ungeachtet nutzen erste Behörden in den USA bereits solche Methoden – was angesichts der zweifelhaften Genauigkeit solcher Systeme das größere Problem ist.