Usability-Forschung Die Maschine versteht jeden Wink

Andreas Schuller vom Fraunhofer-Institut IAO forscht mit der Virtual-Reality-Brille Oculus. Ein zusätzlicher Sensor registriert die Position seiner Hände und blendet sie in das Bild der Brille ein: So kann man im seinen Fingern beispielsweise im virtuellen Bild auf Knöpfe drücken. Foto: Achim Zweygarth
Andreas Schuller vom Fraunhofer-Institut IAO forscht mit der Virtual-Reality-Brille Oculus. Ein zusätzlicher Sensor registriert die Position seiner Hände und blendet sie in das Bild der Brille ein: So kann man im seinen Fingern beispielsweise im virtuellen Bild auf Knöpfe drücken. Foto: Achim Zweygarth

An den Fraunhofer-Instituten in Stuttgart untersuchen Forscher, wie sich Geräte möglichst gut handhaben lassen: mit Virtual-Reality-Brillen und ganz normalen Fahrkartenautomaten. Intuitiv soll die Bedienung sein – und Spaß darf sie auch machen.

WhatsApp E-Mail LinkedIn Flipboard Pocket Drucken

Stuttgart - Der Spielautomat im abgedunkelten Showroom des Usability-Labors der Fraunhofer-Gesellschaft in Stuttgart-Vaihingen setzt ein Zeichen: Trotz greller, ablenkender Farben und lautem Ton sind diese Automaten, wie sie in vielen Gaststätten anzutreffen sind, ein Beispiel für gelungene Nutzerführung. Die wenigen Knöpfe und Hebel für die Bedienung regen eher zu Spiel und Spaß an, als dass sie abschrecken, wie bei den Fahrkarten- oder Geldautomaten gleich nebenan. Doch die stehen nicht dort, um dem Benutzer die bekannten Frustmomente zu verschaffen; die Prototypen sollen vielmehr zeigen, wie mit modernen Interaktionsformen – vom Multitouch-Display über Gesten- und Blicksteuerung – einfache, intuitive Bedienformen möglich werden.

Ziel der Usability-Forschung ist, Menschen beim Benutzen von Geräten oder bei Arbeitsabläufen zu beobachten und die Interaktion von Mensch mit Maschine zu verbessern. Das hört sich abstrakt an, umfasst aber unser ganzes Leben. Wer stand noch nicht vor einem glänzend designten Wasserhahn und fragte sich, wie er drücken, drehen oder schieben muss? Oder genügt es, die Hände darunter zu halten? Und dann gibt es jenes taschengängige Multifunktionsgerät mit glasglänzender Oberfläche, das auf Fingertipp – mit Ziehen und Wischen – so intuitiv gestaltet ist, dass selbst Kindergartenkinder damit zurechtkommen. Damit hat Apple einen Trend vorgegeben, dem sich Usability-Forscher nicht entziehen können.

„Wir machen das Design für den Menschen und untersuchen die zugrunde liegenden Technologien“, sagt Matthias Peissner, der Leiter des Usability-Labs am Fraunhofer-Institut für Arbeitswirtschaft und Organisation (IAO). Und an interessanten Technologien zur Mensch-Computer-Interaktion mangelt es nicht: Die dynamische Computerbranche spült immer weitere Geräte auf den Markt, die Psychologe Peissner und sein 20-köpfiges Team aus Ingenieuren, Informatikern, Ökonomen und Designern für zukünftige Anwendungen prüfen können: etwa die Konsolen Nintendo-Wii oder Microsoft Kinect, Smartwatches oder Datenbrillen.

Etwas Realität in der Virtual Reality

Um an seine Oculus-Datenbrille zu kommen, muss der Informatiker Andreas Schuller erst mal die Kinect-Konsole vom Schreibtisch räumen. Er zieht sich die Brille über den Kopf und taucht ein in eine virtuelle Welt. Der Begriff Brille ist allerdings irreführend: Im Unterschied zur verglasten und transparenten Datenbrille von Google, die den Blick in die Umgebung frei lässt, schaut der Nutzer bei der Oculus Rift ausschließlich auf ein integriertes Display.

Facebook hat kürzlich den Hersteller Oculus übernommen, was die Technik schlagartig für viele interessant machte. „Wir spielen und experimentieren mit diesen neuen Techniken und suchen dafür sinnvolle Anwendungen“, erklärt Schuller. Im Moment hat er eine virtuelle Stadtlandschaft vor Augen. Dreht er seinen Kopf, so schwenkt auch die virtuelle Welt im Display. „Manchem wird dabei schlecht“, sagt der Informatiker. Intuitiv halten sich die Oculus-Nutzer die Hände vor den Kopf. Schuller integriert den Körper stärker in die virtuelle Welt: Vor die Brille hat er einen Sensor befestigt, der die Position der Finger verfolgt. Im Displaybild blendet die Software dann Hände und Finger ein. Mit den Fingern können so beispielsweise virtuelle Knöpfe bedient werden.

Von außen sieht das aus wie Science-Fiction: Schuller scheint von seiner Umwelt durch die Datenbrille komplett isoliert und führt mit den Händen esoterische Bewegungen aus. „Das könnte für die Fabrikplanung interessant sein“, meint der Informatiker. Bewegungs- und Gestensteuerung sind mit den Konsolen Wii und Kinect schon im Wohnzimmer angekommen. Und auch die Forscher nutzen die Techniken längst für ihre Projekte: „In einem Reinraum berührt man am besten nichts. Da könnte die Bewegungs- und Gestensteuerung gut eingesetzt werden“, sagt Schuller.

Im Kern haben die Forscher am Fraunhofer-Usability-Lab zwei Schwerpunkte. Einerseits versuchen sie den Nutzen von Selbstbedienungsautomaten zu erhöhen. Das reicht vom Fahrscheinautomaten bis zum Check-in-Schalter am Flughafen. „Wie sieht der Automat der Zukunft aus?“, umreißt Peissner die zentrale Frage. Und wird ein Automat überhaupt noch gebraucht, da doch fast jeder ein multifunktionales Smartphone mit sich trägt? Für Peissner liegt die Lösung in einer intelligenten Kombination aus Automat und Smartphone. Auch der Automat wird multifunktional und kann von Fahrkarten über Geld bis zu Informationen fast alles liefern. Das Handy dient dann beispielsweise der Identifikation des Nutzers.

Auch Routinearbeit soll mehr Spaß machen

Mit ihrem zweiten Schwerpunkt zielen die Fraunhofer-Forscher auf die produzierende Industrie und Unternehmenssoftware. Sie wollen die Abläufe von Produktionsprozessen innerhalb der Unternehmen, die Usability der Produkte und der Software verbessern. Die Kernfrage lautet: Wie sehen Produkte – Hard- oder Software – aus, die nicht nur einfach und gut zu bedienen sind, sondern den Nutzer emotional ansprechen? „Wir wollen positive Erlebnisse schaffen“, erklärt Peissner.

„User Experience“ heißt das Schlagwort. Als Psychologe ist Peissner da in seinem Element. Dröge Software ist out, er und Kollegen wollen beispielsweise die Arbeitsweisen und die Software für eine Sachbearbeiterin in einer Versicherung so gestalten, dass die Arbeit richtig Spaß macht. Wie das gelingt? Ein kleiner Imagefilm auf der Website des Labors gibt das Beispiel eines Wanderers, der einen Berg erklimmt. Das ist anstrengend, doch oben warten Aussicht und Gipfelbuch. Schon während des Aufstiegs steigt die Vorfreude darauf. Solche positiven Emotionen wie „sich kompetent fühlen“, „sich sicher fühlen“, „mit anderen verbunden sein“ sollen nun in Software gegossen werden.

Soziale Medien wie Facebook sind da Beispiel und Ansporn. „Facebook ist unter anderem so erfolgreich, weil sich die Benutzer dort ausdrücken und miteinander verbinden können“, sagt Peissner. Diese Möglichkeiten habe es zuvor in der Mensch-Technik-Interaktion noch nicht gegeben. In Tests schauen die Forscher den Probanden zu, wie diese mit Fahrkartenautomat oder Software umgehen, wie über Gesten oder Blicke Funktionen an TV-Geräten oder in Computerprogrammen gesteuert werden können. Interviews und Fragebögen helfen ebenfalls dabei, die Usability abzuschätzen. Doch das ist mitunter zu ungenau. In Zukunft wollen die Forscher die neurologischen Funktionen und emotionale Befindlichkeit direkt abgreifen. In ein paar Monaten soll ein neues Laborgebäude mit entsprechendem Equipment, etwa EEGs zum Messen der Gehirnströme, in Betrieb genommen werden.

Unsere Empfehlung für Sie