Visual Computing Eine Wissenschaft des Betrachtens

Von Eva Wolfangel 

Millionenförderung für die Universitäten Stuttgart und Konstanz: In einem vielfältigen Forschungsprojekt geht es um alles rund um das Verarbeiten von Computergrafiken. Wie gehen die Nutzer damit um? Und wie lässt sich die Qualität eines Bildes objektiv messen?

An dem Powerwall genannten Riesenbildschirm können Forscher zum Beispiel chemische Moleküle darstellen und manipulieren. Foto: Uni Stuttgart Foto:  
An dem Powerwall genannten Riesenbildschirm können Forscher zum Beispiel chemische Moleküle darstellen und manipulieren. Foto: Uni Stuttgart

Stuttgart - Etwa 40 Wissenschaftler unter anderem der Universitäten Stuttgart und Konstanz werden sich in den kommenden Jahren damit beschäftigen, wie die Qualität computergenerierter Bilder gemessen und verbessert werden kann. Die Deutsche Forschungsgemeinschaft (DFG) hat den Sonderforschungsbereich „Quantitative Methods for Visual Computing“ von Juli an für vorerst vier Jahre bewilligt und fördert ihn mit acht Millionen Euro.

Der Name des neuen Bereichs ist auffällig breit – und wer sich im Stuttgarter Visualisierungsinstitut VISUS mit Wissenschaftlern des neuen Forschungsbereichs auf die Spurensuche dessen begibt, was hier künftig erforscht werden soll, begegnet einem großen Spektrum: von der Messung physiologischer und psychologischer Daten, um die Interaktion von Nutzern mit bildgestützten Darstellungen zu untersuchen, über neue Formen der Komprimierung großer Datenmengen bis hin zu komplexen Methoden, um die Qualität von Kameras mit algorithmischen Komponenten zu untersuchen. Visual Computing beschreibe eigentlich „alles an Informatikforschung, was irgendwie mit Bildern zu tun hat“, sagt der Sprecher des Sonderforschungsbereichs, Daniel Weiskopf. Bewusst vereine man damit bisher meist getrennte Bereiche wie Computergrafik, Visualisierung von Daten, Mensch-Maschine-Interaktion und maschinelles Sehen.

In Stuttgart hat man mit der breiten Herangehensweise an das Thema bereits Erfahrung: das VISUS gehört als zentrale Forschungseinrichtung der Uni keiner Fakultät an, sondern kooperiert in vielen Projekten fächerübergreifend mit anderen Bereichen. Das Alleinstellungsmerkmal des neuen Sonderforschungsbereichs ist das Vorhaben, computergestützte Darstellungen von Bildinformationen nicht nur qualitativ zu beurteilen, sondern deren Güte auch quantitativ messbar zu machen. „Bisher schaut man sich das Bild meistens an, dann sagt einer: Sieht gut aus“, erklärt Weiskopf, „das ist sehr qualitativ.“ So könne eine neue Wissenschaft der Interaktion etwa vorhersagen, wie ein typischer Nutzer mit einer visuellen Schnittstelle interagiert: eine Betrachtung, wie Menschen betrachten.

Wohin blicken die Probanden?

Kuno Kurzhals, Doktorand am VISUS, zeigt das anhand seiner bisherigen Eyetracking-Forschung: Mit der maschinellen Verfolgung der Augenbewegungen untersucht er, wie Menschen beispielsweise ein Werbevideo betrachten, wann sie wo hinsehen und wie viel Aufmerksamkeit das beworbene Produkt in jeder Szene bekommt. Kurzhals hat die Daten von 40 Probanden erhoben und ausgewertet. Dafür hat er eine visuelle Schnittstelle entworfen, mit der er auf einem riesigen Bildschirm die Blicke jedes Einzelnen als rote Punkte auf dem Video sichtbar machen und über die Zeit verfolgen kann. Er kann einzelne Szenen auswählen und Nutzer gruppieren, die ähnliche Aspekte intensiv angeschaut haben.

Aber wie sollte eine Bildschirmdarstellung idealweise aufgebaut sein? Wo sucht der Nutzer nach welchen Bedienelementen? Kommt man intuitiv und ohne große Umwege zum Ziel? Forscher wie Kurzhals könnten nun selbst zum Forschungsobjekt werden: „Wir wollen besser verstehen, wo bei der Bedienung Schwierigkeiten auftauchen“, sagt Kurzhals. Dafür sollen in den nächsten Jahren möglichst viele Messdaten aufgenommen werden: vom Verfolgen der Augenbewegungen über das klassische Tracking der Aktivitäten des Nutzers bis hin zu Hautleitwerten, die auf Stress hindeuten können.

Auf Grundlage dieser Daten wollen die Forscher eine Theorie der Interaktion entwickeln, mit deren Hilfe visuelle Schnittstellen geplant werden können. „Bislang wurde die Quantifizierbarkeit von Visual-Computing-Methoden häufig vernachlässigt“, sagt Weiskopf. Deshalb zielt die Forschung darauf, typische Anwendungsszenarien zu entwickeln und diese zu vermessen: Wie verhalten sich die Nutzer, wie reagiert der Computer? Auch im Automobilbereich gibt es Vorschriften, wie ein Auto gefahren werden muss, um dessen Normverbrauch zu bestimmen, sagt Weiskopf.

Im Falle hochmoderner Kameras könnte der Weg zu einem solchen standardisierten Verfahren über einen kreativen Aufbau aus Christbaumkugeln, Flaschen, lichtdurchlässigen Folien mit verschiedenen Mustern, Spiegeln und mehr führen. Das Modell im Labor von Martin Fuchs, Juniorprofessor am VISUS, sieht aus wie ein Kunstwerk und dreht sich langsam auf einer Art riesiger Käseplatte, während sich ein Gestell mit einer Kamera noch langsamer davor auf und ab bewegt. Ein Mitarbeiter habe einfach mal alles im Labor zusammengesucht, was Kameras vor Herausforderungen stellt, erklärt Fuchs das Modell. Um die Gitterstrukturen gut darstellen zu können, bräuchten sie beispielsweise eine hohe Auflösung, und um die Bilder, die durch das Gitter hindurch zu erkennen sind, berechnen zu können, muss ein Algorithmus mit Verdeckung umgehen können.

Standards für neue Kameratechniken

Während es in der Optik Testmuster gibt, um die Auflösung traditioneller Kameras zu messen, gibt es nichts Vergleichbares für sogenannte Lichtfeldkameras. Diese nehmen ein Bild beispielsweise mittels vieler kleiner Linsen gleichzeitig aus verschiedenen Perspektiven auf. Dadurch kann man nachträglich einstellen, welche Elemente scharf erscheinen sollen. Solche Kameras werden an Bedeutung gewinnen, ist Fuchs überzeugt, denn dank der Computerunterstützung kann man so mit günstigerer Optik bessere Bilder erzeugen.

Die Forscher wollen eine Testszene kreieren, die solche Kameras vergleichbar macht. Ob der komplexe Aufbau dafür der richtige ist? Ist er reproduzierbar? „Man kann wohl kaum sagen: Suchen Sie in Ihrem Labor alles für Kameras Schwierige zusammen“, sagt Fuchs. Denkbar wäre eine Szene aus Legobausteinen, die weltweit gleich ist, oder auch ein Normkubus, den sich jeder mit einem 3-D-Drucker selbst ausdrucken kann. Derweil nimmt die Kamera im Stuttgarter Labor 90 Bilder pro Sekunde auf, die gesammelten Daten ergeben mehrere Terabyte. „Wie kann man die verschicken?“, formuliert Fuchs gleich eine der weite­ren  Herausforderungen, mit denen sich der Sonderforschungsbereich beschäftigen wird. Wachsende Datenmengen erfordern neue Methoden der Komprimierung. Welche Informationen braucht ein Bild, damit Menschen es nach der Komprimierung so wahrnehmen, wie es zuvor war? Während das im Bereich von Musik schon recht gut erforscht ist, so dass Musik in Form von MP3-Dateien deutlich weniger Platz braucht als auf CDs, sei bei Bildern die Grenze noch nicht erreicht, sagt Fuchs. Zwar gibt es für konventionelle Bilder schon viele gute Komprimierungsverfahren, doch diese lassen sich nicht einfach auf Lichtfeld-Aufnahmen übertragen.

„Wir wollen nicht nur messen, sondern auch verbessern“, sagt Weiskopf. Schließlich handle es sich nicht nur um Grundlagenforschung. Aufgrund ihrer Erkenntnisse wollen die Wissenschaftler des Verbundprojekts beispielsweise effizientere oder selbst lernende Algorithmen entwickeln, die sich dem Menschen anpassen, und die Interaktion mit neuesten Bildtechnologien verbessern.

  Artikel teilen
0 Kommentare Kommentar schreiben
Artikel kommentieren

Melden Sie sich jetzt an!
Um Artikel kommentieren zu können, ist eine Registrierung erforderlich. Sie müssen dabei Ihren Namen sowie eine gültige E-Mail-Adresse (wird nicht veröffentlicht) angeben. Bei Abgabe Ihrer Kommentare wird Ihr Name angezeigt.