KI-Forscher im Interview „Eine Super-KI ist sehr weit entfernt“

Die Vorstellung von einer menschenähnlichen KI macht vielen Angst. Foto: Imago/Christian Ohde

Der Aachener Informatiker Holger Hoos erkennt in den Visionen von einer Künstlichen Superintelligenz quasireligiöse Motive.

Wissen/Gesundheit: Werner Ludwig (lud)

Forschung, die auf eine menschenähnliche Künstliche Intelligenz abzielt, sollte geächtet werden, meint der KI-Experte Holger Hoos von der RWTH in Aachen.

 

Herr Hoos, was ist Intelligenz?

Interessant, dass Sie Intelligenz sagen und nicht Künstliche Intelligenz. Tatsächlich ist es schon beim Menschen nicht leicht, Intelligenz zu definieren. Aber drei Aspekte gehören sicher dazu: Lernfähigkeit, logisches Schließen und kollektive Intelligenz, also intelligentes Handeln im Team. Alle drei Bereiche finden sich auch in der KI-Forschung wieder.

Wo steht KI heute, wenn man sie mit einem Menschen vergleicht – im Kleinkindalter oder in der Pubertät?

So ein Vergleich ergibt keinen Sinn. Der Entwicklungsstand heutiger KI-Systeme hängt davon ab, welchen Teilaspekt von Intelligenz man betrachtet. So ist die Fähigkeit der KI zu logischen Schlussfolgerungen teilweise besser ausgeprägt als beim Menschen. Auch die sprachliche Ausdrucksfähigkeit von ChatGPT ist oft schon besser als die der allermeisten Menschen. Auf der anderen Seite gibt es beispielsweise Aufgaben mit geometrischen Formen, die ChatGPT gar nicht lösen kann, ein fünfjähriges Kind aber schon.

Manche Forscher sagen, dass KI-Systeme die Welt nicht verstehen können, solange ihnen das physische Erleben fehlt.

Das stimmt. Und was die Interaktion mit der physischen Welt angeht, steckt die KI noch in den Kinderschuhen. Das sieht man zum Beispiel in der Robotik, wo KI-Systeme am stärksten mit der realen Welt interagieren. Da hat es bislang noch keine riesigen Fortschritte gegeben, weil auch die Risiken am größten sind. Ähnlich ist es beim autonomen Fahren. Wenn die KI beim Autofahren halluziniert, kann das lebensgefährlich werden.

In der Tech-Branche träumen viele von genereller Künstlicher Intelligenz. Was versteht man darunter?

Künstliche Intelligenz, die der menschlichen in nichts nachsteht. Und davon sind wir zum Glück weit entfernt. Bis jetzt hat zum Beispiel keine KI den Turing-Test geschafft.

Der gilt als bestanden, wenn ein Mensch bei der Kommunikation mit einer KI glaubt, auch sein Gegenüber sei ein Mensch. Könnte man der KI nicht einfach einen IQ-Test vorlegen?

Die Aussagekraft von IQ-Tests ist auch nicht unumstritten. Aber wenn Sie mit ChatGPT oder einem anderen der großen generativen Modelle einen Intelligenztest machen, würden Sie feststellen, dass die KI dabei in vielen Bereichen nicht besonders gut abschneidet.

Um generelle KI zu erreichen, müssten die Systeme auch ein Bewusstsein und einen eigenen Willen haben.

Richtig. Wobei es sehr schwierig ist, so etwas wissenschaftlich nachzuweisen. Das kann man nur indirekt beobachten, und auch da stellt sich die Frage, wie man ein simuliertes Bewusstsein von einem echten unterscheiden kann. Ich bin der Ansicht, wir sollten gar nicht erst versuchen, eine KI zu erschaffen, die uns ebenbürtig oder gar überlegen ist. Was wir brauchen, ist KI, die uns hilft, unsere Schwächen zu bewältigen, und nicht darauf abzielt, uns zu ersetzen. Das würde uns viele ethische Probleme ersparen.

Nämlich?

Wenn es tatsächlich gelingen sollte, eine generelle Künstliche Intelligenz zu entwickeln, die der unseren gleichen würde, müsste man mit solchen Systemen auch umgehen wie mit Menschen und ihnen beispielsweise Leidensfähigkeit zusprechen. Dann wäre es höchst problematisch, mit so einer KI Dinge zu tun, die man mit Menschen nicht tun würde. Zudem hätte eine menschenähnliche KI vermutlich auch all unsere Schwächen.

Wie lange könnte es dauern, bis wir es vielleicht mit solchen Systemen zu tun haben werden?

Ziemlich lange. Ein guter Gradmesser dafür ist das autonome Fahren. Fast jeder Mensch ist prinzipiell in der Lage, Auto zu fahren. Folglich müsste das auch eine generelle KI hinbekommen. Doch bis Autos in allen Verkehrssituationen autonom fahren können, werden noch mindestens zehn Jahre vergehen – vermutlich wird es sogar noch deutlich länger dauern. Ein wesentlicher Grund ist, dass man beim Steuern eines Autos oft mit unbekannten Situationen umgehen muss. Das kann man nicht nur aus Daten lernen, weil manche Situationen so selten sind, dass es dafür kaum Trainingsdaten gibt.

Nicht nur im Silicon Valley gibt es Zukunftsszenarien, in denen eine Super-KI die Welt rettet oder alles zerstört und die Menschen unterjocht. Woher kommen solche Fantasien?

Dahinter steckt ein quasireligiöser Drang zur Mystik, das Bedürfnis nach einer Instanz außerhalb des eigenen Einflussbereichs, die die Verantwortung übernimmt. Doch statt über die entfernte Möglichkeit einer generellen KI zu debattieren, sollten wir den Blick auf die KI- Systeme werfen, die es heute schon gibt und die ständig weiterentwickelt werden. Auch ohne Künstliche Superintelligenz stehen wir vor gewaltigen Umwälzungen. Deshalb muss der Einsatz von KI gut durchdacht und gesteuert werden. Forschung, die versucht, generelle KI zu erzeugen, ist in meinen Augen fehlgeleitet und sollte geächtet werden – genauso wie das Klonen von Menschen.

Experte für Künstliche Intelligenz

Position
Holger Hoos ist Alexander-von-Humboldt-Professor für KI an der RWTH Aachen und leitet das dortige KI-Center. Hinzu kommen Lehrtätigkeiten an der Universität Leiden (Niederlande) und der University of British Columbia (Kanada).

Weitere Themen