Künstliche Intelligenz im Alltag KI und die fehlende Kreativität

Bitte übernehmen – ganz ohne den Menschen schafft es beim autonomen Fahren die KI noch nicht. Foto: dpa/Frank Rumpenhorst

Wie schlau ist Künstliche Intelligenz wirklich? Was sind ihre Grenzen? Und führt der Intelligenzbegriff, bei dem, was der Computer wirklich kann, womöglich eher in die Irre?

Stadtentwicklung & Infrastruktur: Andreas Geldner (age)

Stuttgart - Wenn Künstliche Intelligenz einmal nicht das erfüllt, was man von ihr erwartet, dann ist das auch immer wieder Stoff für amüsante Beispiele. Im Oktober 2020 installierte der schottische Fußballclub Inverness Caledonian Thistle FC eine mit Künstlicher Intelligenz gesteuerte Kamera, die eine Liveübertragung von Spielen möglich machen sollte. Der Schiedsrichter, der das erste Spiel pfiff, bei dem sie zur Anwendung kam, hatte eine Glatze. Hell? Glänzend? Das muss doch ein Ball sein. Und so folgte die Kamera seinem Kopf anstatt dem Ball.

 

Gravierender war das Problem, das es bei einem Testlauf in Frankreich mit einem eingesetzten Roboter für medizinische Beratung gab. Nach der für eine wertfreie Künstliche Intelligenz bestechenden Logik, dass dem Arzt unnötige Arbeit zu ersparen sei, schlug ein vom französischen Spezialisten für Gesundheitssoftware entwickeltes System einem Patienten den Selbstmord vor. Das würde einem Arzt womöglich in der Tat ein Problem vom Leib halten. Aber den Ethikalgorithmus hatten die Entwickler offenbar vergessen.

KI ist nur so gut wie ihre Daten

Eine Technologie wie Künstliche Intelligenz (KI) kann nur so gut sein, wie die ihr zur Verfügung stehenden Daten. Und diese könnten dazu führen, dass Vorurteile und gesellschaftlich zementierte Muster von dem System reproduziert, ja gar noch auf die Spitze getrieben werden. KI, die ganz allein selbstlernend herausfinden soll, ob Männer oder Frauen als Bewerber für eine Stelle geeignet sind, wird Männer präferieren – schlicht weil sie nichts anderes tut, als vorhandene Erfahrungen zu reproduzieren. „Implizite Voreingenommenheit“ heißt diese systematische Schwachstelle eines rein selbstlernenden Systems.

Auch dafür gibt es spektakuläre Beispiele: So wurde der Microsoft Chatbot Tay – ein textbasiertes Dialogsystem –, der mithilfe des Austausches mit Nutzern den typischen Konversationsstil junger Menschen erwerben sollte, vor einigen Jahren durch gezielte Manipulation einiger Hacker sogleich zum Rassisten. Die Maschine sandte Nachrichten mit übelstem Inhalt – und wurde dann schnell vom Netz genommen.

Wie lernt eine Maschine Ethik?

Natürlich könnte man sich dabei einen korrigierenden Algorithmus vorstellen. Nur dann ist das System eben streng genommen keine autonom lernende und agierende Künstliche Intelligenz mehr, sondern der Mensch greift steuernd ein – sozusagen als Hilfsprogrammierer. Ethik hat keine einfachen Formeln. Und auch eine vermeintliche Paradedisziplin der KI, das voll automatisierte Fahren, stößt an hartnäckige Grenzen.

In 99,99 Prozent der Verkehrssituationen reicht die Lernfähigkeit der mit Abermillionen realer Verkehrsdaten trainierten Algorithmen, um sicher zu reagieren. Doch der letzte, fehlende Prozentbruchteil, die finalen Meter sind die entscheidende Hürde. Gerade bei extrem seltenen, überraschenden Events kann eine Fehlinterpretation gravierende Folgen haben, die künftige Nutzer von Roboterautos der Technologie nicht verzeihen würden.

Wissen schöpfen aus dem Vorhandenen

Das hat damit zu tun, wie Künstliche Intelligenz ihr Wissen akkumuliert: Sie häuft nichts anderes an als eine riesige Menge an Datenwissen, in dem sie vorhandene Muster erkennt. Ein Mensch ist in der Lage, aus wenigen Daten Konzepte zu abstrahieren und dabei auch subtile Analogien zu erkennen. Eine Maschine kann das nicht.

Ein Gedankenspiel zeigt, wo das Problem liegt: Selbstlernende Künstliche Intelligenz ist oft nichts anderes als eine mit enormen Datenmengen gefütterte Mustererkennung. So lernt ein Roboterauto etwa, Stoppzeichen unter allen Lichtverhältnissen und vielleicht auch auf verrosteten Schildern zu erkennen. Doch wenn am Straßenrand auf einem braunen Karton geschriebene Buchstaben „S_OP!“ das Wort Stopp signalisierten, würde ein Mensch das Warnsignal in der Regel korrekt interpretieren. Aber ein Algorithmus wäre nicht in der Lage, diese scheinbar auf der Hand liegende Schlussfolgerung zu ziehen.

Taugt der Begriff Intelligenz überhaupt?

Johann Jakob Häußermann vom Center for Responsible Research and Innovation des Fraunhofer-Instituts für Arbeitswirtschaft und Organisation hält den Begriff der Künstlichen Intelligenz deshalb für nicht unproblematisch. Ein klassisches Übersetzungsproblem sozusagen. Während im Englischen der Begriff „intelligence“ auch die Bedeutung von „Datensammeln“ hat, ist er im Deutschen mit der menschlichen Erkenntnisfähigkeit gekoppelt. „Er suggeriert eine kognitive, kreative Fähigkeit für etwas, was letztlich eine komplexe Rechenmaschine bleibt.“

Zudem werde das Schlagwort KI inzwischen inflationär gebraucht: Viele Anwendungen, Produkte oder Start-ups mit einer etwas intelligenteren Datenanalyse nutzen das Schlagwort der Künstlichen Intelligenz. Häußermann glaubt, dass so eine schiefe Wahrnehmung entstanden sei: „Ich glaube, dass dies nicht dabei hilft, Transparenz und Verständlichkeit herzustellen. Dies ist aber zentral, um Vertrauen in die Nutzung solcher Systeme aufzubauen.“ Mit dem Begriff intelligenter Maschinen seien bestimmte Bilder verbunden, gelegentlich Horrorszenarien und manchmal auch eine diffuse Angst: „Dabei vernichtet die KI als solche noch kein Berufsbild.“ Es sei höchste Zeit, den Begriff zu entmystifizieren.

Keine emotionale Intelligenz

Auch die Wiener Wirtschaftsinformatikerin Sarah Spiekermann fordert mehr Aufklärung über die Grundlagen der KI: „Heute haben sehr viele Leute vergessen, wie intelligent der Mensch selber ist und schreiben Maschinen durch zu viel Science-Fiction-Konsum lauter menschliche Intelligenzeigenschaften und eine emotionale, wertebasierte Intelligenz zu, die die Maschine gar nicht haben kann.“ Sie spricht von einer Unterschätzung des Menschen und einer Überschätzung der Maschinen. Was sind also die Grenzen Künstlicher Intelligenz?

KI braucht heute riesige Datenmengen. Aber diese Daten stehen nicht immer zur Verfügung – und wenn es sie gibt, profitieren wenige große Monopole wie der Internetriese Google & Co. Das „Wissen“ der KI speist sich ausschließlich aus der Summe und dem Steinbruch dieser Daten. Implizit und intuitiv lernen kann der Computer nicht. Wir Menschen können Gelerntes in neue Kontexte setzen. KI kann das nicht. Damit sie funktionieren kann, braucht sie sehr hohe Rechenleistungen, die für bestimmte Aufgaben teilweise noch nicht zur Verfügung stehen oder wirtschaftlich sind. Künstliche Intelligenz ist deshalb dem Menschen nur bei spezifischen Aufgaben überlegen.

Es muss nicht so bleiben: KI-Forscher haben genau diese Defizite im Blick. So soll beispielsweise die Abhängigkeit von riesigen Datensätzen geringer werden. Aber dafür muss man noch besser verstehen, wie die Lernprozesse von KI tatsächlich funktionieren – denn wie genau ein Dateninput zu einem Output wird, wissen die Entwickler heute oft nicht.

Weitere Teile unserer KI-Serie finden Sie auf dieser Seite.

Weitere Themen