Künstliche Intelligenz Der Roboter muss noch Manieren lernen

Bei Arbeiten, bei denen  Mensch und Roboter kooperieren, ist die Zuverlässigkeit von Künstlicher Intelligenz entscheidend. Foto: Fraunhofer IPA/Rainer Bez
Bei Arbeiten, bei denen Mensch und Roboter kooperieren, ist die Zuverlässigkeit von Künstlicher Intelligenz entscheidend. Foto: Fraunhofer IPA/Rainer Bez

Zwischen Erkenntnis und Anwendung herrscht bei Künstlicher Intelligenz noch eine Lücke. Anwender der Wirtschaft misstrauen der Verlässlichkeit der Technik. Das Vaihinger Fraunhofer-Institut weiß Rat.

WhatsApp E-Mail LinkedIn Flipboard Pocket Drucken

Vaihingen - Noch im zweiten Quartal dieses Jahres werden laut baden-württembergischem Wirtschaftsministerium die Würfel fallen, ob Stuttgart-Vaihingen den Zuschlag als Standort des Innovationsparks Künstliche Intelligenz (KI) bekommt. Dafür würde sprechen, dass im Stadtbezirk mit Uni, Fraunhofer-Gesellschaft und Max-Planck-Institut bereits an der Künstlichen Intelligenz gearbeitet wird. Das Fraunhofer IPA-Institut in Vaihingen hat nun eine Methode entwickelt, wie die Ergebnisse der Grundlagenforschung so in die Produktion einfließen können, damit klar wird, was sich Künstliche Intelligenz selbst beibringt und wie sie mit der Unkalkulierbarkeit menschlicher Fehler zurechtkommt.

Zertifizierung soll KI verlässlich machen

Produktionsplanung, Logistik, Wartung oder Qualitätskontrolle, teilt das Institut mit, seien Beispiele für den Einsatz Künstlicher Intelligenz. Sie solle die Produktion flexibilisieren, die Wartung vorausschauend planen, den Warenfluss optimieren, die Logistik und die Qualitätskontrollen automatisieren. In der Praxis würden KI-Modelle aber wenig genutzt, weil ihre Zuverlässigkeit schwer prüfbar sei. Neue Zertifizierungskriterien könnten die KI fit für Anwendungen machen, bei denen Sicherheit eine wesentliche Rolle spiele. „Tatsächlich wurden in den letzten Jahren, auch am Fraunhofer IPA, zahlreiche vielversprechende KI-Algorithmen und -Architekturen entwickelt, beispielsweise für Computervision, Mensch-Maschine-Schnittstellen oder vernetzte Robotik“, sagt Xinyang Wu vom Zentrum für Cyber Cognitive Intelligence am Vaihinger IPA. Zwischen Forschung und Anwendung klaffe eine Lücke. Unternehmer wollten selbstlernende Roboter nur dann nutzen, wenn diese zuverlässig arbeiteten, und wenn man mit hundertprozentiger Sicherheit sagen könne, dass die Maschinen Menschen nicht gefährdeten. Genau dies lasse sich bisher nicht beweisen. Es gebe weder Normen noch standardisierte Tests.

Was im Labor funktioniert, muss dies nicht automatisch in der Fabrikhalle

„Das Ziel muss sein, die Entscheidungen, die von Algorithmen gefällt werden, zertifiziert und transparent zu machen“, sagt Wu. So müsse die Nachvollziehbarkeit gewährleistet sein. Wenn eine Maschine selbstständig Entscheidungen fälle, dann müsse man, zumindest im Nachhinein, herausfinden können, warum sie in einer bestimmten Situation einen Fehler gemacht habe. Wenn eine Anwendung im Labor funktioniere, dann müsse dies nicht zwangsläufig in der Produktion der Fall sein. „KI-Module werden auf vorhandene Daten eingestellt. In der Industrie kommen aber oft unvorhergesehene Daten hinzu. Für die Sicherheit ist das nicht gut.“ Das Problem werde deutlich, wenn sich Mensch und Roboter den Arbeitsplatz teilten. Dabei greife sich beispielsweise der Roboter eine Komponente von einem Standort, und sein Arm bringe sie zum Arbeiter. Wenn der Mensch dem Roboterarm zu nahekomme, könne ihn dieser verletzen. „Der Roboter muss auf menschliche Fehler reagieren können, aber menschliche Fehler kann er nicht vorhersagen“, sagt Wu. Deshalb habe das Fraunhofer IPA-Institut für die Robotik Algorithmen entworfen, damit der Roboter immer dem Menschen ausweiche.

Fünf Kriterien für den sicheren Umgang der Maschine mit dem Menschen

Black-Box-Modelle, bei denen man die Entscheidung der Algorithmen nicht nachvollziehen könne, sind Wus Einschätzung nach in sicherheitskritischen Anwendungen nicht direkt für den Einsatz geeignet, es sei denn, das Modell werde durch die richtige Methode zertifiziert.

Doch wie überprüft man Künstliche Intelligenz? Das IPA-Team am Zentrum für Cyber Cognitive Intelligence hat dafür jetzt eine Strategie vorgeschlagen und über den Stand der entsprechenden Technik im sogenannten „White Paper: Zuverlässige KI – KI in sicherheitskritischen industriellen Anwendungen einsetzen“ berichtet. Die Strategie basiere auf Zertifizierbarkeit und Transparenz. „In erster Linie ging es uns erst einmal darum, Regeln zu finden, mit deren Hilfe sich die Zuverlässigkeit von maschinellem Lernen und der dazugehörigen KI bewerten lässt“, resümiert Wu.

Das Ergebnis dieser Recherche sind fünf Kriterien, die KI-Systeme erfüllen sollen, um als sicher zu gelten. Erstens müssten alle Entscheidungen der Algorithmen für Menschen verständlich sein. Zweitens müsse die Funktion der Algorithmen vor ihrem Einsatz mit Methoden der Formalen Verifikation geprüft werden. Drittens sei eine statistische Validierung notwendig, besonders wenn die formale Verifikation wegen Skalierbarkeit für den bestimmten Anwendungsfall nicht nutzbar sei. Dies könne durch Testläufe mit größeren Datenmengen beziehungsweise Stückzahlen überprüft werden. Viertens müssten auch die Unsicherheiten, die den Entscheidungen Neuronaler Netze zugrunde liegen, ermittelt und quantifiziert werden. Fünftens müssten die Systeme während des Betriebs permanent überprüft werden, beispielsweise durch Online-Monitoring. Wichtig sei dabei die Erfassung von Sensordaten und aus deren Auswertung die daraus resultierenden Entscheidungen.




Unsere Empfehlung für Sie