„Schau, da, ein Murmeltier!“ Wie selbstverständlich deutet der Entdecker des possierlichen Tierchens auf die Felswand. Und der Rest der Wandergruppe sieht … nichts. Denn während der Sender den Finger zwar wie einen Maus-Cursor bewegt und das Murmeltier exakt „anklickt“, nimmt der Adressat nur einen visuellen Reiz und eine grobe Armrichtung wahr.
Wissenschaftler am Lehrstuhl für Kognitive Psychologie der Julius-Maximilians-Universität in Würzburg erforschen seit Anfang März, wie Menschen Zeigegesten interpretieren und warum diese so häufig zu Missverständnissen führen.
Projektleiter ist der Psychologe Dr. Oliver Herbort, die Studien durchführen wird seine Kollegin Lisa-Marie Krause. Gefördert wird das Projekt zunächst über einen Zeitraum von drei Jahren von der Deutschen Forschungsgemeinschaft (DFG). Schon seit einigen Jahren untersucht Herbort Bewegungen
des Menschen und geht der Frage nach, wie man seinen Körper kontrolliert.
„Selbst wenn wir eine Kaffeetasse greifen, müssen 40 Muskeln koordiniert werden. Auch alltägliche Bewegungen wie diese, sind eigentlich eine schrecklich schwierige Aufgabe“, sagt der 40-jährige Psychologe. Dabei unterlägen Bewegungen immer auch bestimmten Gesetzmäßigkeiten – und so bewegt den Arm in der Regel schneller, wer auf ein großes Objekt zeige, als eine Person, die ein kleines Objekt anvisiere. Gleichzeitig gebe die Zeigerichtung keine Auskunft darüber, ob auf ein kleines lokales Merkmal oder auf ein großes Ganzes gedeutet werde. Zeige der Erdkunde-Lehrer im Unterricht auf der Landkarte Norden und Süden, funktioniere dies in der Regel gut. Wolle er auf eine einzelne Stadt deuten, sei ein Hilfsmittel wie ein Laserpointer anzuraten. Erschwerend komme hinzu: Der visuelle Reiz verändert sich, je nachdem, wo man gerade steht, obwohl die zeigende Person eigentlich immer das gleiche macht.
Dr. Herbort will im DFG-Projekt herausfinden, wann Zeigegesten funktionieren – und wann nicht. Eine Rolle spielen könnten die Forschungsergebnisse später zum Beispiel in der Mensch-Maschinen- Interaktion. Wie müsste ein Haushaltsroboter programmiert sein, um aus verschiedenen Positionen für Menschen verständlich zu deuten? Und auch für Entwickler von Videospielen könnte das Projekt
relevante Erkenntnisse mit sich bringen.
Die 26-jährige Psychologin Lisa-Marie Krause plant inzwischen verschiedene Versuche in der virtuellen Realität (VR). Der Proband bewegt sich dabei mit VR-Brille als Adressat der Zeigegesten in einer virtuellen Welt. Der Sender ist eine animierte Gestalt und deutet. Mittels Gitterlinien am Horizont der VR-Welt kann der Proband exakt angeben, wie er die Zeigegesten aus unterschiedlichen Perspektiven interpretiert. In späteren Versuchen will Krause zum Beispiel auch noch erforschen, inwieweit sich die Handhaltung des Senders auf die Interpretation des Adressaten
auswirkt.