Der Erfolg ist ein Meilenstein für die Künstliche Intelligenz angesehen. Er darf aber nicht überbewertet werden.

Stuttgart - Eine Google-Software hat nach dem Europameister nun auch den weltbesten Spieler im asiatischen Brettspiel Go besiegt: Der Koreaner Lee Sedol hat am Mittwoch das erste von fünf Spielen im Match klar verloren. Go galt bisher als eine der größten Herausforderungen für die künstliche Intelligenz, da es komplexer ist als Schach und eine Partie aus wesentlich mehr möglichen Spielzügen besteht.

 

Die Software AlphaGo beruht auf sogenannten neuronalen Netzwerken. Bei dieser Art des maschinellen Lernens wird die Funktionsweise des menschlichen Gehirns nachgeahmt: Die Netze bestehen aus mehreren Lagen mit einer festzulegenden Anzahl an Neuronen, deren Verbindungen sich verstärken oder abschwächen – abhängig von den „Erfahrungen“, die sie machen. Angesichts der Vielschichtigkeit sind diese Netze geeignet, große Mengen an Eingabedaten zu verarbeiten. Die einzige Beschränkung war bisher die Rechenleistung, die derzeit stark wächst. Das sogenannte Deep Learning ist deshalb im Kommen. Die Software AlphaGo wurde vom britischen Start-up Deep Mind entwickelt. Anfang 2014 hatte Google das Unternehmen für 400 Millionen Pfund gekauft, die größte Übernahme des US-Konzerns in Europa. Google will bei der Zukunftstechnologie der künstlichen Intelligenz ganz vorne mitmischen – und hat gute Karten, denn neben exzellenten Entwicklern und ausgefeilten Algorithmen braucht man dafür vor allem eines: massenweise Daten.

Überwachtes maschinelles Lernen

Gerade beim überwachten maschinellen Lernen, auf dem auch AlphaGo beruht, sind Daten das A und O. Der Algorithmus lernt nicht aus vorgegebenen Regeln, sondern anhand von Beispielen – ähnlich wie ein Kind, das aus Beobachtungen lernt. Sind diese Beispiele, sogenannte Trainingsdaten, repräsentativ für die später vom Computer zu lösende Aufgabe, so lernt die Software umso präziser, je mehr Daten sie zur Verfügung hat.

Die Herausforderung beim überwachten maschinellen Lernen ist häufig, geeignete Trainingsdaten zu finden und diese so aufzubereiten, dass sie zum Problem passen. Das war in diesem Fall nicht schwierig: AlphaGo hatte Millionen Spielzüge aus bisherigen Go-Partien genutzt, um zu lernen, wie das Spiel funktioniert. Ein anderes Netz hatte derweil unzählige Male gegen sich selbst gespielt und so gelernt, wie erfolgreiche Strategien aussehen. Mit diesem Hintergrundwissen kann die Software nun in jeder Situation aus einer Auswahl an Zügen wählen, anstatt stets alle noch möglichen Züge auf den insgesamt 361 Feldern durchzurechnen. Dies hätte den Computer in Echtzeit überfordert.

Es gibt größere Herausforderungen als ein Go-Spiel

Doch der Begriff des überwachten Lernens ist irreführend, denn das Lernen an sich wird nicht überwacht. Für die Entwickler entsprechender Algorithmen ist es nicht durchschaubar, anhand welcher Kriterien ein solches System welche Schlüsse zieht. Das macht andere Anwendungsfälle weit komplizierter: Woher weiß man, ob der Algorithmus richtig liegt, wenn es um komplexere Fragestellungen geht, als ein Spiel zu gewinnen?

Von daher ist der Sieg einer Maschine über den weltbesten Go-Spieler zwar einerseits ein Meilenstein für die künstliche Intelligenz, weil er zeigt, welche Datenmassen ein modernes System in Echtzeit verarbeiten kann. Andererseits sind größere Herausforderungen denkbar, schließlich liegen in diesem Fall nicht nur die Trainingsdaten auf der Hand, die Aufgabe kommt einem Computer auch entgegen: Ein wichtiger Teil besteht darin, mögliche künftige Züge vorauszuberechnen. Das menschliche Gehirn ist hier im Nachteil, weil die Zahl gleichzeitiger Rechenoperationen begrenzt ist. Deshalb war absehbar, dass Spiele wie Schach und Go die ersten Bereiche sind, in denen Computer den Menschen überlegen sind. Für andere Bereiche sagt das aber nicht allzu viel aus.