Verbraucherschutz muss auch die Algorithmen, die unseren Alltag verändern, umfassen, meint Daniel Gräfe.

Geld/Arbeit: Daniel Gräfe (dag)

Barcelona - Es ist nicht mehr zu überhören: In den Messehallen von Barcelona, wo die IT-Branche Jahr für Jahr lautstark das technisch Mögliche feiert, entfalten die nachdenklicheren Töne mehr Resonanz. Künstliche Intelligenz, also die annähernd selbstständige Aufgabenbearbeitung von Computerprogrammen, ist das Trendthema der weltgrößten Mobilfunkmesse. Wenn dort Firmen wie IBM für diese smarten Programme, kurz KI genannt, mehr Regeln und Grenzen fordern, sind das wichtige und längst überfällige Stimmen. Denn KI wird verändern, wie wir planen, kommunizieren, uns gesund halten, Geld überweisen und Auto fahren. Sie wird zum Teil unserer Arbeitswelt und revolutioniert nahezu jede Branche. Ihre Möglichkeiten zu erkennen und die Auswüchse zu begrenzen geht uns deshalb alle an.

 

Künstliche Intelligenz hängt von den Daten ab

Dazu müssen Unternehmen die Funktionsweise ihrer KI-Algorithmen so kommunizieren, dass die Verbraucher sie zumindest im Grundsatz verstehen können. KI-Algorithmen sind darauf programmiert, dass sie Regeln nicht ständig wiederholen, sondern auch eigene ableiten und Lösungswege finden können. Und doch sind sie nur so gut wie die Daten, aus denen sie sich speisen, und so intelligent wie die Überlegungen, die ihre Programmierer angestellt haben. Ein bekanntes, abschreckendes Beispiel ist, wie vor einiger Zeit Amazons automatisiertes Bewerbungsverfahren scheiterte. Für die Bewerbersuche wurde der KI-Algorithmus mit den Daten erfolgreicher Mitarbeiter gespeist. Da diese aber meist männlich waren, bewertete das Programm Frauen schlechter.

Benachteiligungen wie diese zu erkennen und ihre Datengrundlage kenntlich zu machen wird entscheidend sein. Zu den zentralen Voraussetzungen zählt neben Datensicherheit Transparenz. Deshalb müssen Firmen im Grundsatz offenlegen, wie ein zentraler Algorithmus funktioniert. Dafür müssen Lösungen gefunden werden, die beinhalten, dass Geschäftsgeheimnisse gewahrt werden können.

Kommuniziert eine Maschine mit dem Kunden über Internet oder Telefon, muss auch das offensichtlich sein. Nicht nur etliche ältere Mitbürger wissen nicht, dass statt des Bankmitarbeiters oder Online-Dienstes auch KI-Algorithmen Fragen beantworten. Es gibt mittlerweile Maschinen, die fast wie Menschen klingen oder schreiben. Die Non-Profit-Organisation Open AI nahm jüngst ihren Textgenerator vom Netz, weil sich dessen Texte angeblich wie von einem Menschen fabriziert lasen. Die Befürchtung: Auf diese Weise könnten andere Akteure Falschmeldungen oder gefälschte Produktrezensionen verbreiten.

Notwendig ist ein Regelwerk für die Datenwelt

Auch wenn hinter dieser Meldung etwas Marketing-Kalkül stecken könnte: Wird KI missbraucht oder weist sie Fehler auf, muss das in jedem Fall Folgen haben. Dazu braucht es Regeln, auf die man sich beziehen kann. Diese lassen sich oft von der analogen Welt auf die digitale übertragen. Der hippokratische Eid muss auch für die in der Medizin eingesetzte Software gelten. Der Arbeitsschutz für das Zusammenspiel von Mensch und KI-Maschine. Die komplexe Aufgabe ist, die KI-Welt in das Regelwerk unserer Gesellschaft zu integrieren.

Diesen Rahmen muss die Politik erarbeiten. Es war dringend notwendig, dass sich jetzt in Deutschland eine Enquetekommission mit den Regeln und Grenzen der KI beschäftigt. Sie könnten Grundlagen für Rechtssicherheit, Geschäftsbeziehungen und für besseren Verbraucherschutz sein. Und im besten Fall das Vertrauen schaffen, dass die KI-Regeln zumindest hierzulande mit unseren gesellschaftlichen Werten übereinstimmen. Was weltweit folgt, steht auf einem anderen Blatt. Auf eine Selbstverpflichtung der Branche sollte man allerdings nirgendwo setzen. Wenn Firmen ihre ethischen Grundsätze betonen, treibt sie wohl eher die Angst vor Regulierung als die eigene Überzeugung an.