Wenn es für Taucher zu gefährlich wird, kommen Roboter zum Einsatz. Informatiker bringen ihnen als erstes bei, wie sie sich unter Wasser orientieren. Vielleicht erkunden die Maschinen sogar einmal ferne Himmelskörper.

Bremen - Stoisch dreht Dagon im Wasserbecken seine Runden. Langsam schwimmt er von Glaswand zu Glaswand. Der gut ein Meter lange und 75 Kilo schwere Roboter sendet Schallsignale aus, über die er seine Position ähnlich der GPS-Methode bestimmt. Mit zwei Kameras im Kopf nimmt er außerdem Bilder der Unterwasserlandschaft auf. Auch anhand des Abstands und Blickwinkels auf einen bestimmten Punkt kann er sich lokalisieren.

 

Jan Albiez und Marc Hildebrandt sind zufrieden. Ihr Roboter, der aussieht wie ein platt gedrücktes U-Boot, macht genau, was er soll. Die Position im Wasserbecken zu bestimmen, ist keine leichte Aufgabe für einen Automaten. Dagon muss alles autonom erledigen. Es gibt kein Kabel, das ihn mit einem Hauptrechner verbinden würde.

Kaum jemand würde vermuten, dass sich in dem unscheinbaren Gebäude nahe der Universität Bremen, in dem Dagon seine Runden dreht, das weltweit größte Forschungszentrum auf dem Gebiet der Künstlichen Intelligenz verbirgt. Es ist ein zweckmäßiger Bau, in dem sich die Unterwasserrobotik auf einen Markt vorbereitet, der in den kommenden Jahren wichtiger werden wird. Da die Bodenschätze in der Nähe der Erdoberfläche knapp werden, steigt das Interesse an den Ressourcen in tiefer gelegenen Stellen des Meeres. Das Schweißen von Pipelines unter Wasser muss von sogenannten Remotely Operated Vehicles (ROV) durchgeführt werden, ferngesteuerten Gefährten, da Taucher in diese Tiefen nicht vordringen können.

Auch in trübem Wasser muss Dagon stets wissen, wo er ist

Das ist auch Ansatz des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) in Bremen – und das Ziel, das Albiez und Hildebrandt mit ihrem Roboter Dagon verfolgen. Die Roboter sollen klein, mobil und auch ohne Versorgungsschiff überall einsetzbar sein.

Mehr noch: auch in der Raumfahrt könnte Dagon nützlich sein. So wird zum Beispiel auf dem Eismond Europa, der um den Planeten Jupiter kreist, unter einer bis zu 10.000 Meter dicken Eisdecke ein Ozean aus Salzwasser vermutet. Stimmt das, könnte es dort Formen von Leben geben. Ein intelligentes Navigationssystem könnte einem autonomen Unterwasserfahrzeug ermöglichen, diesen Ozean erstmals zu erkunden. Wissenschaftler des DFKI-Forschungslabors entwickeln nun die Software für den Roboter, Dagon soll testen, ob die Programme funktionieren.

Der Informatiker Jan Albiez, als Projektleiter verantwortlich für das Unterwasserlabor, wendet sich vom Wasserbecken ab, in das er durch eine große Scheibe blicken konnte. „Wasser ist eine feindliche Umgebung für hochtechnische Geräte“, sagt er und er erläutert sogleich: „Lichtbrechung von Sonnenstrahlen, ein sich stets veränderndes Farbspektrum, sich pausenlos ändernde Druckverhältnisse, Trübung und Schwebteilchen im Wasser – es gibt viele Einflussfaktoren, die Robotern unter Wasser das Leben schwer machen, zumal wenn sie allein agieren sollen.“ Vieles, was Roboter an Land längst könnten, müsse unter Wasser neu erarbeitet werden.

Ein langes Kabel zum Versorgungsschiff hat Nachteile

Meist tauchen Roboter an einer Nabelschnur in die Tiefe und schleppen ein armdickes, kilometerlanges Kabel hinter sich her. Das hat Nachteile: „Die Bewegungsfreiheit ist eingeschränkt, zudem muss der Roboter sehr kräftige Motoren besitzen, da das Kabel aufgrund seiner Länge und seiner Angriffsfläche unter Wasser wie ein Segel wirkt und ständig abbremst“, sagt Albiez. Er und seine Kollegen wollen, dass ihre Roboter sich auch in nicht erprobten Situationen stets klug verhalten.

Der 38-jährige Albiez und der 30-jährige Hildebrandt haben das Unterwasserlabor mit aufgebaut. Zwei Testbecken mit 20.000 und 40.000 Liter Fassungsvermögen dominieren ihren nüchternen Arbeitsraum. Eine Steuerungswarte, von der sich auf mehreren Monitoren und aus verschiedenen Perspektiven beobachten lässt, was die Roboter machen, drängt sich in einer Ecke des Raumes. Alles wirkt sehr funktional, obwohl beim Umgang mit den Maschinen auch viel Emotionalität mit im Spiel ist. „Jedes Mal, wenn wir unsere Roboter nach vielen Experimenten in freier Natur ins Wasser werfen, sie aus Sichtweite abtauchen, werden wir nervös“, sagt Albiez. Bisher sei aber noch jeder Roboter wieder aufgetaucht – und dass das so ist, ist vor allem langen Versuchsreihen in den Testbecken des Labors zu verdanken.

„In Experimenten trüben wir das Wasser etwa mit Tonmehl ein, um so etwas darüber herauszufinden, wie sich die Maschinen bei schlechter Sicht orientieren“, erklärt Albiez. Solche Erkenntnisse sind wichtig, da autonome Roboter bereits Arbeiten übernehmen müssen. So wollte ein norddeutscher Kraftwerksbetreiber zum Beispiel mit einem Roboter feststellen, ob seine Zu- und Abwasserrohre verschlickt sind. Ein Roboter drang dazu bis zu einem Kilometer tief in ein Rohr ein, was für einen Menschen unmöglich ist. „Bei solchen Aufgaben muss vorher sicher sein, dass der Roboter seinen Weg auch wieder herausfindet“, ergänzt Hildebrandt, der Dagon betreut, den er zu einem großen Teil selbst entworfen hat. „Funk und GPS funktionieren unter Wasser nicht oder nur eingeschränkt.“

Das Nachfolgemodell, an dem Albiez und Hildebrandt gerade arbeiten, soll kompakter und damit eines der schmalsten existierenden Unterwasser-Fahrzeuge werden. Neben der Navigation wird auch der Antrieb verbessert: „Der Roboter wird eine Schraube zur aktiven Fortbewegung haben, zugleich aber auch wie durch Auftriebsänderung durch das Wasser gleiten können“, sagt Hildebrandt. Im Fokus der Forschung am DFKI steht aber die Navigation: Auf dem Mond Europa soll der Roboter eines Tages eigenständig zurück zum Eisbohrer finden, um seine Fotos und Messdaten zu übermitteln. Der Roboter muss dabei während der gesamten Mission ohne Steuerung von der Erde auskommen.