Ein Blick sagt mehr als tausend Bits.
Die lang vorhergesagte Zukunftsvision, in der Roboter unseren Alltag bestimmen, ist bisher noch nicht wahr geworden. Doch aus dem Produktionsalltag sind Roboter schon jetzt nicht mehr wegzudenken. Wo Mensch und Maschine interagieren, ist Kommunikation zwischen beiden nötig. Kann diese über Blicke funktionieren?
Wer einen Staubsaugroboter zu Hause hat, kennt das Problem: Nie weiß man genau, was die kleine Maschine als nächstes vor hat. Ab und zu fährt sie einem sogar mal über den Fuß – in der Regel ein überschaubares Risiko für tödliche Verletzungen. Anders verhält es sich mit Industrie-Robotern. Sie sind wesentlich größer und verfügen über immense Kraft. Damit besteht eine hohe Verletzungsgefahr für Menschen, die mit ihnen zusammenarbeiten. Obwohl moderne Roboter schon über diverse Sicherheitssysteme verfügen – Sensoren für Abstand, Berührung oder Geräusche – können schmerzhafte Arbeitsunfälle bisher nicht vollständig ausgeschlossen werden. Was nun, wenn der Mensch intuitiv voraussehen könnte, wohin sich der Roboter als nächstes bewegt?
Wie genau das funktionieren kann, untersucht “Intendicate”, ein gemeinsames Forschungsprojekt der Berliner Humboldt Univeristät und der Human Factors Consult GmbH.
Ein Mensch sieht in der Regel das Objekt seiner Begierde an, bevor er es (an)greift. Er zeigt uns also durch seinen Blick und seine Körperhaltung, was er vorhat. Wir lernen schon im Kindesalter, diese Bewegungen sogar aus dem Augenwinkel wahrzunehmen und reagieren ganz automatisch auf sie. Im Vergleich zu anderen Primaten hat der Mensch durch sein Augenweiß besonders gut erkennbare Augen. Eine Hypothese ist, dass sich dieses Merkmal entwickelt hat, um es Artgenossen zu erleichtern, der Blickrichtung eines Individuums im Nahbereich zu folgen.
Ob diese Hypothese auch der Mensch-Maschine-Kommunikation helfen kann, soll durch das Forschungsprojekt “Intendicate” genauer untersucht werden. Im ersten Schritt wurde der Industrie-Roboter “Sawyer” mit einem Bildschirm ausgestattet. Er zeigt zwei große, cartoonhafte Augen mit Augenbrauen, die verschiedene Aktionen begleiten – sie können in eine bestimmte Richtung schauen, blinzeln, aufgerissen sein und mehr.
Das aktuelle Design der Augen zeigt sich jedoch für den Sawyer Roboter und seinen Einsatzzweck als zu emotional und verspielt und wird dadurch leichter missverstanden. Einige Studienteilnehmer:innen beschrieben ihn als “niedlich”, was dazu führen könnte, dass seine Kraft und potentielle Gefahr unterschätzt wird. Um hier die richtige Balance zwischen Charakter und Pragmatismus zu finden, wurden wir als Partner zum Projekt hinzugezogen.
Ausgehend vom aktuellen Entwicklungsstand haben wir Designstudien durchgeführt, die mit Proband:innen getestet wurden, um eine eindeutige und zielführende Informationsübermittlung zwischen Maschine und Mensch sicherzustellen: ohne Fehlinterpretationen und Irritationen. Das Ziel: Eine größere gefühlte und erfahrbare Sicherheit für Nutzer:innen.
Wir wollten wissen: Wie abstrakt kann die Darstellung der Augen werden? Welche gelernten, menschlichen Attribute sind obsolet – welche enorm wichtig? Und was braucht es, damit die visuelle Kommunikation für die Nutzer:innen verständlicher wird? Dazu haben wir die Designs schrittweise um menschliche Merkmale wie Wimpern, Lider und Iris reduziert, bis hin zu einer rein grafischen Darstellung.
Es wurde klar, dass wir zur Erkennung einer Blickrichtung eigentlich nur einen Indikator in einem klar abgegrenzenden Raum brauchen – wie die Iris im Kontext des Augapfels. Sobald man den äußeren Rahmen, den Augapfel, entfernt, geht die Orientierung verloren.
Pupillen fliegen ohne Referenz durch den Raum
Zwei einfache Rahmen erleichtern die Orientierung
Für die äußere Form haben wir uns für einen Kreis entschieden. Gegenüber jeder anderen Form hat er immer einen gleichbleibenden Radius, der es ermöglicht, eindeutige und mathematisch korrekte Positionen anzuzeigen. Außerdem ist es die Form, die wir von einem Auge erwarten und dadurch auch am besten lesen können.
In der ersten Design- und Animationsphase haben wir verschiedene Gestaltungen exploriert, immer auf der Suche nach der richtigen Balance zwischen natürlicher und artifizieller Wirkung. Dabei sind wir sehr unterschiedliche Wege gegangen. Wir haben getestet, wie viele Augenpaare es überhaupt braucht – Ist eins zu wenig, sind sechzehn zu viel? Welcher Stil ist der richtige? Sollten wir bei der klassischen Liniengrafik bleiben oder uns z.B. von der Pixelgrafik der frühen 90iger inspirieren lassen? Hilft die grafische Andeutung von Dreidimensionalität? Oder gibt es weiter Indikatoren, wie Zeit oder Bewegung, die wir andeuten können?
Als Kontrolle haben wir statt der Augen auch Pfeile als Gestaltungselement getestet. Auf den ersten Blick sehr gut für Richtungshinweise geeignet, stellten wir schnell fest, dass sie für diese Anwendung keinen Sinn ergeben. Um eine Räumliche Kommunikation zu ermöglichen, mussten die Pfeile dreidimensional sein, bei einem klaren "Blick" nach vorn waren sie nicht mehr zu erkennen und eine klare Verortung des Ziels war nicht möglich.
Eine Auswahl von Entwürfen wurde im Anschluss in einem 3D-Model der Testumgebung mathematisch genau positioniert und ihre Blickrichtung errechnet und entsprechend animiert. Spätestens hier hat sich gezeigt, dass zwei Augen nötig sind, um eine genaue Blickrichtung im Raum anzuzeigen. Entscheidend ist hier die sogenannte Konvergenz – wie sich der Winkel der Augen zueinander verhält (wie sehr die Augen “schielen”) um zu erkennen, ob die Augen etwas in der Nähe oder der Ferne fokussieren.
Nach der Entwurfsphase starteten die Nutzertests. Wir haben getestet, wie die Augen im periphären Sichtfeld von Nutzer:innen wahrgenommen werden. In digitalen Experimenten haben wir per Eye-Tracking überprüft, wie sich unsere gestalteten und animierten Entwürfe gegen menschliche Augen durchsetzen und wie gut erkannt wird, wohin der Roboter schaut.Die Forschung geht weiter und wir sind gespannt, in welche Roboteraugen wir in Zukunft blicken werden.