Neun Forscher warnen in einem Manifest vor möglichen Manipulationen auf der Grundlage von Big-Data-Analysen. Ihre Übertreibungen schwächen jedoch den ernst zu nehmenden Alarmruf, befürchtet die Wissenschaftsjournalistin Eva Wolfangel.

Stuttgart - Eine Reihe europäischer Wissenschaftler um Dirk Helbing, Professor für Computational Social Science an der ETH Zürich, haben in Form eines „Manifests“ eine drastische Warnung vor den Gefahren von Big Data und künstlicher Intelligenz (KI) veröffentlicht. Beim Lesen des eindringlichen Rundumschlags der Forscher aus verschiedensten Disziplinen stellt sich zunächst Abwehr ein, das Ganze klingt übertrieben, teils nach Science Fiction. So warnen die Autoren davor, „das Denken aller Bürger durch einen Computercluster zu ersetzen“ und vor einer „gezielten Entmündigung des Bürgers durch staatlich geplante Verhaltenssteuerung“. Und das ist vielleicht das größte Problem des Manifests: die seriösen Inhalte verschwinden hinter den teils markigen Worten, sie lassen sich allzu leicht vom Tisch wischen. Selbst wenn manche Big-Data-Vertreter davon ausgehen mögen, die komplexen Probleme der Welt mittels Computern lösen zu können, geht es sicher niemandem darum, das Denken zu ersetzen.

 

Dabei sollte uns das Phänomen durchaus beunruhigen, dass in letzter Zeit immer wieder Wissenschaftler vor den Gefahren der neuen Technologien warnen – und zwar auch solche, die aus entsprechenden Fachgebieten kommen, wie Dirk Helbing oder die KI-Expertin Yvonne Hofstetter, die mit ihrem Unternehmen Teramark Technologies an entsprechenden Entwicklungen verdient (siehe 2. Seite). Neu im Vergleich zu bisherigen Statements sind der Tonfall und die Vehemenz, die Wissenschaftler um Helbing und Hofstetter in ihrem „Appell zur Sicherung von Freiheit und Demokratie“ im Online-Auftritt des Magazins „Spektrum der Wissenschaft“ an den Tag legen – in Sätzen wie diesem: „Es muss uns klar sein, dass auch eine Superintelligenz irren, lügen, egoistische Interessen verfolgen oder selbst manipuliert werden kann.“

Ideen aus der Welt der Science Fiction

Das sind harte Geschütze, denn die Idee, dass Maschinen eines Tages intelligenter als Menschen sind und die Macht übernehmen könnten, vor der zuletzt der Physiker Stephen Hawking, Tesla-Gründer Elon Musk und Microsoft-Gründer Bill Gates gewarnt haben, verbannen Wissenschaftler mehrheitlich in den Bereich der Science Fiction. Im Manifest sprechen die Autoren gar von einer „superintelligenten Maschine, die quasi gottgleiches Wissen und übermenschliche Fähigkeiten hätte“ – eine Formulierung, die dazu geeignet ist, düstere Science-Fiction-Horrorvisionen zu beschwören. Dahinter verschwindet die durchaus ernst zu nehmende Gefahr, dass intelligente Algorithmen manipuliert werden können – mit drastischen Folgen für die Gesellschaft.

Offenbar sind die Forscher überzeugt, solcherlei Übertreibungen zu benötigen, damit die Gesellschaft zuhört. Die Warnungen von IT-Prominenten in den USA hätten ihn aufhorchen lassen, sagt Dirk Helbing zu seiner Motivation: „Ich will das nicht überspitzen, aber ich habe mich gefragt, wieso Leute wie Elon Musk von Tesla, Bill Gates von Microsoft und Steve Wozniak von Apple gerade so nervös reagieren auf das Thema.“ Weil er als Forscher mit solchen Themen in Kontakt komme, fühle er seine Verantwortung: „Angesichts von Entwicklungen wie Massenüberwachung und Vorratsdatenspeicherung erschien uns ein Alarmruf erforderlich.“

Die Forscher warnen in ihrem Manifest vor unfreien Entscheidungen, wenn wir angesichts personalisierter Empfehlungssysteme, die in Zukunft über Google und Facebook hinausgehen werden, nur unsere eigene Meinung widergespiegelt bekommen und in unseren Filterblasen gefangen sind. Sie warnen vor einer Polarisierung der Gesellschaft, wenn Vielfalt immer weniger sichtbar wird. „Hinzu kommt ein weiteres Problem, wenn ausreichende Transparenz und demokratische Kontrolle fehlen: die Aushöhlung des Systems von innen. Denn Suchalgorithmen und Empfehlungssysteme lassen sich beeinflussen.“ schreiben sie: und in der Tat ist das eine Gefahr. Kürzlich hat eine Studie gezeigt, dass Google Wahlen beeinflussen kann – schon dann, wenn es der Konzern nicht beabsichtigt.

Die Forscher warnen: zu viel Bewegung kann auch schaden

Mit entsprechender bewusster Manipulation kann die Demokratie unterlaufen werden. Helbing hat dafür den Begriff „Big Nudging“ geschaffen, eine Mischung aus Big Data und Nudging, was „anstupsen“ bedeutet. Wir kennen es beispielsweise aus der Werbung, die geschickt Dinge so platziert, dass wir sie kaufen – auch wenn wir nach gründlicher Überlegung vielleicht zu einem anderen Produkt gegriffen hätten. „Ich dachte, das bleibt Teil der Werbung“, sagt Helbing. Aber nun scheint es Einzug in die Politik zu halten. Helbing beschreibt, wie der chinesische Staat für jeden Bürger eine Art Punktekonto einrichtet, in das beispielsweise dessen Internetaktivitäten einfließen. Die Punkte sollen darüber entscheiden, zu welchen Konditionen er einen Kredit bekommt und ob er einen bestimmten Beruf ausüben oder nach Europa reisen darf. Eine gefährliche Entwicklung, warnen die Autoren, vor allem weil Algorithmen heute mehr über uns wissen als unsere Freunde, vielleicht „mehr als wir selbst“ (noch so eine Übertreibung). „Wenn die Gesellschaft über den Umweg der Künstlichen Intelligenz gesteuert wird, die lernen kann, wie wir uns verhalten und was wir für Sehnsüchte haben, halte ich das für gefährlich“, erklärt Helbing.

Das ist einleuchtend. Hätte er das nur so aufgeschrieben. Stattdessen machen sich die Verfasser angreifbar, indem sie zu vieles über einen Kamm scheren. In einem Rutsch verurteilen sie Fitness-Armbänder (die könnten dazu führen, dass Menschen sich mehr bewegen und damit künftig mehr Hüftoperationen gebraucht würden) und beklagen, „dass sich die Probleme in der Welt trotz Datenflut und Verwendung personalisierter Informationssysteme nicht verringert haben – im Gegenteil!“ Der Weltfrieden sei brüchig, der Klimawandel rotte Tierarten aus. Nur: dafür kann Big Data wirklich nichts.

Wer bei Dirk Helbing nachfragt, erlebt einen zutiefst besorgten Wissenschaftler, der befürchtet, dass Nudging in Kombination mit intelligenten selbst lernenden Algorithmen nicht nur zur Manipulation von Menschen führen kann, sondern sogar zu einer Situation, in der niemand mehr überblickt, warum die Maschinen so handeln. Unabhängig davon, ob man an eine „Superintelligenz“ glaubt, die uns Menschen eines Tages beherrscht, ist das eine reale Gefahr. Helbing hat Recht. Nur leben wir nicht in China – unsere Politik geht hoffentlich verantwortungsvoller mit der Demokratie um. Helbing bleibt skeptisch: „Dass hierzulande so viele Daten gesammelt werden, dient nicht nur der Sicherheit, sondern auch zur Beeinflussung unseres Verhaltens.“

Teils innovative Empfehlungen der Manifest-Autoren

Dabei besteht die Gefahr sicherlich nicht darin, dass der Staat seine Bürger mittels Nudging zu mehr Bewegung animiert, sondern dass Unternehmen unsere Daten durch allzu laxe Gesetze sammeln und missbrauchen, indem sie uns für ihre eigenen kommerziellen Interessen manipulieren. Und darin, dass die heute gesammelten Daten später oder in einem totalitären Regime missbraucht werden. All das sind berechtigte Bedenken, und die von Helbing und Kollegen vorgeschlagenen Mechanismen der Transparenz und Mitbestimmung sind gute Mittel dagegen. Wer diese berechtigten Analysen aber zu sehr in die Nähe einer Verschwörungstheorie rückt, schadet der Sache.

Was dabei ein wenig in den Hintergrund gerät, sind die teils innovativen Strategien, welche die Autoren in einem separaten Dokument vorschlagen: ein Gesellschaftsvertrag, eine Art Ehrenkodex, wie mit den Daten der Bürger umzugehen ist. Eine Möglichkeit, Daten transparent zu speichern und die individuelle Hoheit darüber zu behalten. Treuhänder, die Algorithmen kontrollieren, und verstärkte Möglichkeiten für den Nutzer auszuwählen, welche dieser Algorithmen er nutzen möchte. Außerdem die Daten für Wissenschaft und Öffentlichkeit zugänglich zu machen – und nicht zuletzt, die Bürger zu bilden und die öffentliche Debatte zu fördern. Denn wer Bescheid weiß, ist weniger manipulierbar.

Nachgefragt bei der Unternehmerin Yvonne Hofstetter

Frau Hofstetter, Sie verdienen mit Ihrem Unternehmen Teramark Technologies Ihr Geld mit Big-Data- Technologien. Wieso warnen Sie nun so vehement davor?
Weil ich weiß, was mit Big-Data-Analysen möglich ist. Zudem müssen Sie unterscheiden, welche Daten Sie verarbeiten: Im Manifest geht es uns darum, dass Humandaten ausgewertet werden. Wenn Menschen datenmäßig erfasst und analysiert werden, gefährdet das ihre Selbstbestimmung. Der Mensch verliert die Kontrolle über seine Daten und seine Privatsphäre.
Sie warnen vor Nudging, also dem Versuch, Menschen durch Anstupsen in eine Richtung zu bewegen. Ist die Art und Weise, wie die Dinge im Supermarkt angeordnet sind, nicht beispielsweise auch schon Nudging? Was ist die neue Qualität?
Die Qualität der Manipulation ist eine andere als früher. Durch die permanente Überwachung unseres Online-Verhaltens entsteht eine informationelle Asymmetrie. Unternehmen und Staaten wissen mehr über uns denn je. So erlangen sie Macht über uns, nicht nur in Bezug auf unser Konsumverhalten.
Sie befürchten, dass mit den digitalen Diensten auch die amerikanische Mentalität auf uns übertragen wird?
In den USA herrscht ein anderes Verfassungsverständnis. Während Freiheit bei uns die Selbstbestimmung im Kant’schen Sinne meint, spricht man dort von „Liberty“ und meint die Freiheit von staatlicher Regulierung. Für den freien Handel muss alles erlaubt sein. Und diese Wertvorstellung wird in die Technik eingebaut.
Glauben Sie, dass der deutsche Staat Big Nudging einsetzt, also ein Nudging auf der Grundlage von Big-Data-Analysen, um seine Bürger zu manipulieren – wie es im Manifest anklingt?
Ich glaube nicht, dass unser Staat die entsprechenden Technologien dafür hat. Wir sind zu abhängig von den Amerikanern. Aktuell sehe ich hierzulande keine große Gefahr. Aber das kann sich ändern, eine Demokratie muss immer wieder neu errungen und erkämpft werden. Und dass bei der jungen Generation Sicherheit und Überwachung so sehr im Vordergrund stehen, das finde ich bedenklich.