Professor Viktor Mayer-Schönberger ist Experte für Big Data. Er fordert, den Schutz unserer Daten in Zeiten von Google, Facebook & Co. ganz neu zu organisieren.

Stuttgart – Big Data – das ist der Versuch, durch Auswertung riesiger Datenmengen zu neuen Erkenntnissen und Produkten zu kommen. Viktor Mayer-Schönberger, Professor am Oxford Internet Institute, ist überzeugt, dass Big Data weltweit die Gesellschaft, die Wirtschaft und die Politik umkrempeln wird. Deshalb sei es an der Zeit, auch den Datenschutz an diese neue Welt anzupassen.

 
Herr Mayer-Schönberger, „Der Spiegel“ titelte vor kurzem, die Chefs von Google, Amazon & Co. seien „Die Weltregierung“. Vom Silicon Valley aus werde die Welt verändert – ohne Grenzen, ohne Kontrolle, ohne demokratische Gegenmacht. Ist das Schwarzmalerei?
Das ist keine Schwarzmalerei, das ist eine Karikatur. Damit werden die Fähigkeiten der Leute im Silicon Valley, die Weltläufte zu beeinflussen, klar überzeichnet. Die Gründer der großen Internet-, Computer- oder Digitalfirmen regieren nicht die Welt. Sie beeinflussen allerdings, wie wir miteinander umgehen, wie wir kommunizieren und wie wir uns verhalten. Wir leben mitten in einer digitalen Revolution, die unser aller Leben verändert.
Selbst der Chef des Springer-Verlags, Matthias Döpfner, bekennt öffentlich: Ich habe Angst vor Google! Sind die Deutschen zu furchtsam?
Ich habe in den letzten drei Jahren viele Vorträge über das Internet und Big Data gehalten. Aber in keinem anderen Land der Welt gibt es wie in Deutschland sofort diesen negativen Drall in der Diskussion nach dem Motto: das ist etwas Schlimmes, das ist etwas Gefährliches, das müssen wir stoppen. Wir müssen differenzierter und realistischer an diese Dinge herangehen.
Wo müssen wir denn wirklich wachsam sein, wenn es um Big Data geht?
Big Data eröffnet unglaubliche Chancen. Und die Datenmengen, die verarbeitet werden, sind gigantisch. Was mich in der Nacht nicht schlafen lässt, ist jedoch nicht das Sammeln von Daten an sich. Ich sehe das zentrale Problem darin, dass wir anhand der großen Datenmengen versucht sind, individuelles menschliches Verhalten vorherzusagen und daran Konsequenzen zu knüpfen, also Verantwortlichkeit und Schuld zuzuweisen.
Damit meinen Sie aber nicht die Fähigkeit von Amazon, uns aufgrund bisheriger Vorlieben ein Buch zu empfehlen?
Nein, mir geht es um die Fähigkeit, mit Hilfe von Big Data zu prognostizieren, ob ein Mensch eine bestimmte Krankheit bekommt oder eine Straftat verübt. Das ist längst keine Science Fiction mehr: In 30 von 50 US-Bundesstaaten wird bereits heute die Entscheidung, ob jemand auf Bewährung freikommt, mit Hilfe einer Big-Data-Analyse getroffen. Man berechnet die Wahrscheinlichkeit, mit der die Person in den kommenden zwölf Monaten in ein Kapitalverbrechen verwickelt sein wird, und entscheidet auf dieser Grundlage über dessen Verbleib im Gefängnis. Der Betroffene empfindet dies wohl als Strafe ohne konkrete Tat.
Wie treffsicher sind solche Big-Data-Prognosen?
Der Mensch ist überraschend vorhersehbar. Wir werden mit unseren Vorhersagen auch immer besser. Hundert Prozent werden wir niemals erreichen, aber wir können deutlich über siebzig, achtzig, vielleicht neunzig Prozent kommen. Richtig angewandt, können solche Prognosen viel Gutes bewirken, in dem sie Risiken aufzeigen und wir unser Handeln entsprechend anpassen können. Wenn wir allerdings anfangen, Menschen Schuld zuzuschreiben für lediglich vorhergesagtes Handeln, dann ist das ein Missbrauch von Big Data. Deshalb müssen wir die Frage stellen, welchen ethischen und rechtlichen Rahmen wir brauchen, um zu verhindern, dass die Big-Data-Analyse in eine solche Richtung gedrängt wird.
Geht es hier – wie im Beispiel der Gewalttäter-Prognose - nur um staatliches Handeln?
Nicht nur. Wenn ich schon vor einer Führerscheinprüfung sagen kann, dass jemand ein miserabler Autofahrer wird, dann drängt sich die Frage auf: Geben wir ihm überhaupt noch die Chance, den Führerschein zu machen? Und wenn wir ihm diese Chance geben, erlauben wir dann den Versicherungen, von ihm eine höhere Prämie zu verlangen - obwohl die Person noch nie einen Unfall gehabt hat? Was bedeutet das für die Idee eines solidarischen Risikopools, wenn ich das Risiko auf diese Weise individualisiere?