In der komplexen Debatte um Künstliche Intelligenz trifft das neue Buch von Jörg Dräger und Ralph Müller-Eiselt den richtigen Ton.

Digital Desk: Jan Georg Plavec (jgp)

Stuttgart - Künstliche Intelligenz dürfte zu den aktuell am häufigsten diskutierten Technologien zählen. Kein Wunder, schließlich ist es zunächst einmal verdächtig, wenn Maschinen automatisiert Entscheidungen treffen. Ein Kennzeichen der an vielen Stellen – etwa auf Fachkonferenzen oder in den Feuilletons – geführten Debatte ist, dass es so oft um grundsätzliche philosophische Entwicklungen oder das Abspulen möglichst vieler angesagter Schlagworte geht. Die konkreten Anwendungsbereiche künstlicher Intelligenz und deren konkrete Stärken und Schwächen kommen dagegen häufig zu kurz. Dabei tut ein solcher Reality-Check manchmal gut, wenn wieder mal einer von Disruption spricht oder davor warnt, dass Roboter eines Tages die Weltherrschaft übernehmen könnten.

 

Jörg Dräger und Ralph Müller-Eiselt wählen in ihrem aus einem Projekt der Bertelsmann-Stiftung hervorgegangenen Buch „Wir und die intelligenten Maschinen“ (DVA, 20 Euro) einen anderen Ansatz. Sie treffen insbesondere den richtigen Ton. Mehr als die Hälfte der 17 jeweils kurzen Kapitel stellt konkrete Anwendungen öffentlicher Intelligenz in so unterschiedlichen Bereichen wie Medizin, Bildung, Onlinemedien und Justiz vor.

Algorithmen sortieren unsere sozialen Kontakte im Internet, sie schlagen uns potenzielle Partner auf Datingplattformen vor, entscheiden aber auch über die Glaubwürdigkeit von Asylanträgen und beeinflussen die Kreditvergabe oder sogar die Bestrafung Krimineller – Letzteres bislang nur in den USA. Stets verspricht Künstliche Intelligenz mehr Effizienz, geringere Kosten und nicht zuletzt eine Entlastung der Menschen, damit diese Aufgaben erledigen, die keine Maschine je bewältigen wird.

Für mehr „algorithmische Kompetenz“

Die Autoren sind überzeugt, dass es ohne Künstliche Intelligenz in Zukunft nicht geht. Sie benennen aber auch klar die Fehler und Schwächen solcher Prozesse, die natürlich dann besonders gravierend sind, wenn wie bei der Bestrafung oder auch bei der Software zum „Predictive Policing“ einzelne Bevölkerungsgruppen oder Stadtteile systematisch benachteiligt werden. Allerdings wird das nicht als Ausweis der Nutzlosigkeit von Algorithmen verstanden – sondern als Ansporn, darüber zu sprechen und es besser zu machen.

Das ist vernünftig, denn die Algorithmen werden nicht mehr verschwinden. Aber sie müssen eben in jedem Einzelfall ihre Nützlichkeit unter Beweis stellen. Darüber muss man sprechen – und das geht nur, wenn die Gesellschaft zu einer solchen Diskussion befähigt ist. Das Buch weist darauf hin, dass die öffentliche Kontrolle von Algorithmen auch dann nötig ist, wenn diese wie bisher häufig als Geschäftsgeheimnis gelten. Überhaupt braucht es bei Behörden und Bürgern mehr „algorithmische Kompetenz“, finden die Autoren. Ihr Buch ist ein gut lesbarer Einstieg auf dem Weg dorthin.