„Viele Prinzipien, mit denen wir arbeiten, sind wahnsinnig alt: es gibt keine grundlegenden Neuerungen“, sagt Daimler-Zukunftsforscher Alexander Mankowsky. „Das Prinzip der Prozessoren wurde am Ende des zweiten Weltkriegs entwickelt“, und das maschinelle Lernen werde in C++ programmiert, einer 40 Jahre alten Programmiersprache. Das Grundprinzip der Computerchips etwa habe sich in all den Jahrzehnten nicht geändert. Exponentiell entwickelt habe sich nur ihre Leistung. Wer daraus schließt, dass fortan der gesamte technologische Fortschritt exponentiell abläuft, begeht einen Denkfehler.

 

Und doch prägt dieser letzte, rasche Anstieg der Kurve die Wahrnehmung. Die Ursache für hektische Betriebsamkeit ist daher nicht der rasante Fortschritt. Sondern die Unbeweglichkeit vorher. Auf dem falschen Fuß erwischt die Entwicklung nur jene, die den langen Anlauf übersehen haben. Nur wer spät startet, muss schneller rennen. Das beste Rezept gegen den atemlosen Wettlauf ist daher: früher loslaufen. „Disruption kommt nur für diejenigen überraschend, die sich nicht mit den wissenschaftlichen Trends beschäftigen“, sagt Wolfgang Wahlster, Direktor des Deutschen Forschungszentrums für künstliche Intelligenz DFKI. Zu seinem Leidwesen tun das deutsche Unternehmen nicht. „Der Begriff Industrie 4.0 ist ein Konzept aus Deutschland, das wir 2010 geprägt haben.“ Erst als er zeitverzögert als „Industrial Internet“ in den USA aufgegriffen wurde, stieg in deutschen Unternehmen das Interesse stark an. Chatbots? Schon Ende der 1990er habe er den ersten dieser Art für den Versandhändler Otto entwickelt. „Vor 60 Jahren hatte man schon einfache mehrschichtige neuronale Netze – und viele Vorstandsvorsitzende hören jetzt den Begriff maschinelles Lernen zum ersten Mal.“ Warum sich dennoch viele förmlich überrannt fühlen, komme daher, „dass Entwicklungen oft erst dann ernst genommen werden, wenn sie aus dem Silicon Valley in englischer Übersetzung zurückkommen“.

Gute Erfindungen fallen schwer

Dabei entstehen auch im Silicon Valley keine Wundermaschinen. Kuri beispielsweise ist derzeit einer der meistgehypten Roboter für Privatkunden. Er erinnert in Gestalt und Größe an einen Pinguin, das Startup Mayfield Robotics hat ihn im Januar 2017 auf der CES vorgestellt. Was kann er? Vielleicht sprechen? „Nein, das kann Kuri natürlich nicht“, sagt Marketingchef Chris Matthews. Trotz der jüngsten Erfolge im maschinellen Lernen gibt Kuri nur roboterartige Laute von sich. Er kann auf Wunsch beispielsweise Musik abspielen, seinen Besitzer informieren, falls eine bestimmte Person das Haus betritt. Kuri lässt sich per Smartphone fernbedienen, wenn sein Besitzer nicht zu Hause ist. Dann kann dieser durch Kuris Kamera-Augen schauen und durch seinen Lautsprecher reden. Während Forscher davon schwärmen, wie eine KI-Methode namens Deep Learning die Spracherkennung vorantreibt, verzichten die Praktiker lieber noch auf sie.

Wir müssen uns einen Umstand eingestehen: Wirklich bahnbrechende Erfindungen fallen unglaublich schwer. Selbst unter Mithilfe von künstlicher Intelligenz wird sich der Prozess nicht beschleunigen lassen. Vielleicht könnte diese Technologie sogar das Gegenteil bewirken. „Sie könnte für eine Verlangsamung der Entwicklung sorgen, weil sie auf Basis von Daten aus der Vergangenheit lernt“, fürchtet Daimler-Zukunftsforscher Mankowsky. Konsequent zu Ende gedacht sei eine Zukunft mit künstlicher Intelligenz eine Wiederholung des ewig selben. „Wenn man zehn Rembrandts hat, kann man den elften automatisch malen.“ Filme und Fernsehserien könnten zwar auf der Basis von KI geschrieben werden – aber mit dem Ergebnis, dass alle ähnlich wären. „KI ist das Gleiche in Varianten“, sagt Mankowsky. Computer haben keine Visionen. Und sie sind nicht innovativ. Menschen sind es – aber dafür brauchen sie Zeit. Der Befehl, schneller zu denken, hat noch nie zum Ziel geführt.