Die jungen Frauenaugen schauen gerade in die Kamera. Als würden sie ihren Betrachter durchbohren wollen. Ich würde also durchdringend angeben, wenn man mir diesen Begriff als Attribut für den Augenausdruck auf dem Foto anbieten würde. Macht man aber nicht. Stattdessen kommen als Vorschläge: „schockiert“, „amüsiert“, „entschlossen“ und „gelangweilt“. Was jetzt? Ich kreuze „entschlossen“ an und klicke zum nächsten Foto. Da blinzelt ein Paar älterer Augenschlitze seitwärts an der Kamera vorbei. Schaut es…
Sie wollen den ganzen Artikel downloaden? Mit der PH+-Flatrate haben Sie unbegrenzten Zugriff auf über 2.000 Artikel. Jetzt bestellen
Augenschlitze seitwärts an der Kamera vorbei. Schaut es verträumt? Wohl nicht, denn als Begriffsvorschläge werden hier „befreit“, „niedergeschlagen“, „aufgeregt“ und „schüchtern“ genannt. Ernste Zweifel kommen jetzt bei mir auf, ob ich überhaupt irgendeinen Gesichtsausdruck richtig erkennen kann. Bin ich zu unempathisch? Vielleicht sogar ein verkappter Autist? Oder habe ich zu lang in Smartphones und Laptops gestarrt, so dass meine Fähigkeit zum Gesichterlesen versiegt ist?
Andreas Sprenger kann mich beruhigen. „Die Augen sind zwar wichtig für uns, um den Ausdruck in einem Gesicht lesen zu können“, erklärt er. „Aber es fällt uns natürlich leichter, wenn wir auch noch andere Gesichtsareale sehen, wie etwa den Mund und die Stirn.“ Wenn es darum geht, im Gesichtsausdruck die Gefühlslage der abgebildeten Person zu erkennen, liege die Trefferquote beim bloßen Blick auf die Augen bei 25 von 36 Bildern. „Man liegt also in seiner Einschätzung immerhin mit 11 von 36, also bei fast jedem dritten Bild daneben“, erklärt der Psychologe.
Sprenger hat sich zusammen mit seinen Kolleginnen Juliana Wiechert und Soé Neuwerk von der Universität Lübeck der Frage angenommen, ob alle Menschen weitgehend gleich gut darin sind, von den Augen ihres Gegenübers auf dessen emotionalen Zustand zu schließen. Sie verglichen dabei Paar- und Gruppentänzer mit Menschen, die auf sonstige Weise sportlich aktiv waren, sowie Nichtsportlern. Von den Tänzern erwarteten die Forscher, dass sie besonders gut im Augenlesen seien. Denn sie brauchen nicht nur ein Gespür für die Bewegungen ihres Partners, sie schauen ihm auch ständig in die Augen.
Ich seh's in deinen Augen!
Die Lübecker Forscher stellten einen Test ins Internet (survey.neuro.uni-luebeck.de), in dem man nicht nur die Empathiefähigkeiten der Probanden abfragte, sondern diese auch darum bat, sich die Fotos von unterschiedlichen Augenausdrücken anzuschauen und dazu eine von vier vorgegebenen Interpretationen auszuwählen. Auf den Schwarz-Weiß-Bildern waren die Augen von Schauspielern zu sehen, denen man emotionale Zustände vorgegeben hatte, die sie mimisch ausdrücken sollten.
Über 700 Probanden absolvierten den Test, davon knapp 130 Tänzer. Die ursprüngliche Hypothese bewahrheitete sich allerdings nicht. Denn im Wesentlichen konnte man keine nennenswerten Unterschiede zwischen den drei Gruppen beobachten. Die Tänzer sind also, auch wenn man es von ihnen erwartete, in ihren empathischen und augenleserischen Fähigkeiten den übrigen Sportlern und auch den Nichtsportlern keineswegs überlegen.
Das ist insofern bemerkenswert, als es in der Öffentlichkeit immer wieder alarmierte Stimmen gibt, die davor warnen, dass wir viel zu lange auf Smartphones und andere Monitore starren und viel zu selten in die Gesichter der Menschen, die uns umgeben. Das werde noch dazu führen, dass wir das Gesichterlesen allmählich verlernten, heißt es dann mahnend. Doch diese Befürchtung scheint unbegründet zu sein. Das zeigt sich auch daran, dass die neuen Befunde aus Lübeck in etwa denen einer älteren Studie entsprechen, die schon um die Jahrtausendwende an der University of Cambridge durchgeführt wurde – und zu dieser Zeit gab es noch keine Smartphones. „Dass deren permanenter Gebrauch uns zu schlechteren Mind-Readern macht, ist genauso wenig belegt wie die oft zu hörende Hypothese, wonach unsere Kinder durch Smartphone, Laptop, PC und dergleichen immer dümmer würden“, sagt Sprenger.
Blicke stören beim Denken
Unsere Fähigkeit, in Gesichtern zu lesen, scheint also eine ziemlich stabile Größe zu sein. „Vermutlich ist sie einfach zu wichtig für uns, als dass wir darin große Schwankungen hinnehmen könnten“, meint Juliana Wiechert. Tatsächlich sind wir im Alltag fortwährend damit beschäftigt, Blickkontakt mit anderen Menschen aufzunehmen. Egal ob dies beim Frühstück mit dem Partner und den Kindern, beim Einkaufen an der Kasse oder auch beim Skypen im Internet (auf dem Monitor!) geschieht. Beim Gespräch schauen wir immer wieder ins Gesicht unseres Gegenübers, um zu überprüfen, wie das Gesagte bei ihm ankommt, und auch um das, was er uns sagt, mit seinem Gesichtsausdruck abzugleichen und zu einem Gesamtbild zusammenzufügen.
Wenn wir freilich intensiv über etwas nachdenken, müssen wir vorübergehend den Blickkontakt lösen. Das zeigt, wie viel Kapazität das Face-Reading in unserem Gehirn beansprucht. „Wir sind offenbar damit überfordert, beides zu tun“, erläutert Wiechert. „Wir können nicht angestrengt nachdenken und parallel auch noch versuchen, im Gesicht des anderen Menschen zu lesen.“
43 Muskeln erzeugen mehr als 10000 Ausdrücke
Für die Priorität der Empathie von Angesicht zu Angesicht spricht auch die Tatsache, dass wir — zusammen mit Schimpansen, Gorillas und anderen Primaten — überhaupt ein echtes Gesicht haben. Andere Säugetiere — selbst jene, die über ausgeprägte soziale Strukturen verfügen — haben keines. Allenfalls Hunde haben sich im Laufe ihrer Domestizierung den „Dackelblick“ und andere mimische Fertigkeiten zugelegt, damit ihr zweibeiniger Lebenspartner sie besser versteht. Doch zur innerartlichen Kommunikation nutzen sie wie andere Tiere auch vor allem Körpergerüche, Körperhaltungen und Lautäußerungen, ihre Mimik beschränkt sich auf den Ausdruck von Basisemotionen wie Aggression und Angst. Der Mensch hingegen hat ein Gesicht, das sich von Individuum zu Individuum unterscheidet und in dem laut Untersuchungen des US-Psychologen Paul Ekman 43 Muskeln mehr als 10000 Ausdrücke erzeugen können. Diese Zahl wird von keinem anderen Primaten erreicht.
Bridget Waller von der University of Portsmouth konnte kürzlich nachweisen, dass Schimpansen beispielsweise keine Frustrationen mimisch ausdrücken können. Das Forscherteam der englischen Evolutionspsychologin zeigte sechsjährigen Menschenkindern und erwachsenen Schimpansen eine Box, die entweder Spielzeug (für die Kinder) oder eine Banane (für die Affen) enthielt. Doch als man ihnen diese Kiste überreichte, war sie verschlossen. Woraufhin die Kinder das Kinn hoben und die Schmolllippe vorschoben ein klassisches mimisches Motiv der Frustration. Die Schimpansen hingegen wären zwar aufgrund ihrer Gesichtsmuskulatur auch dazu imstande gewesen, doch ihr Ausdruck blieb unberührt, geradezu stoisch. Später zeigten sie zwar ihre Aggression, doch den Frust zuvor hatte man ihnen nicht angesehen. Was Waller mit „der unterschiedlichen Kooperationsbereitschaft von Mensch und Schimpanse“ erklärt. Demnach trügen wir unsere Schwächen eher nach außen, weil wir mehr auf die Hilfe von anderen hoffen dürften. Dem Schimpansen hingegen sei zwar Kooperationsbereitschaft auch nicht fremd, doch sie sei bei ihm schwächer ausgeprägt als bei uns.
Das Jennifer-Aniston-Neuron
Die zentrale Rolle des Gesichterlesens beim Menschen zeigt sich auch durch das Jennifer-Aniston-Neuron. Entdeckt wurde es von Rodrigo Quian Quiroga, Neurobiologe an der University of Leicester. Seine Versuchspersonen waren Epilepsiepatienten, denen man aus medizinischen Gründen mehrere Elektroden im Gehirn eingepflanzt hatte. Dadurch konnten Quiroga und sein Team relativ genau messen, wo gerade Neuronen feuerten. Man legte den Probanden unter anderem diverse Fotos vor, beispielsweise von Bauwerken, Tieren oder eben auch prominenten Schauspielern.
Und bei einem der Patienten passierte es dann: Jedes Mal, wenn man ihm ein Bild von Jennifer Aniston vorlegte, begann eine Neuronengruppe in seinem Gehirn zu feuern. Und zwar unabhängig davon, ob die Schauspielerin von der Seite, in der Gruppe oder von weitem gezeigt wurde. Präsentierte man dem Patienten hingegen das Bild einer ähnlich aussehenden Frau, passierte: nichts. Die Neuronen in der Region reagierten also nur auf Jennifer Aniston und sonst nichts.
Eine anschließende Befragung des Patienten ergab, dass er noch nicht einmal ein Fan der Schauspielerin war. Er kannte sie, mehr aber auch nicht. In anderen Versuchen entdeckte man bei anderen Probanden noch weitere Neuronen, die durch ganz bestimmte Gesichter zum Feuern gebracht wurden. Wie etwa durch Bill Clinton, die Beatles, Brad Pitt oder auch Halle Berry, die den ihr zugeordneten Neuronenverbund sogar dann aktivierte, wenn sie in kompletter Kostümierung als „Catwoman“ präsentiert wurde. „Das Gehirn mit seinen vielen Milliarden Nervenzellen kann sich offenbar den Luxus erlauben, seine Neuronen auf bestimmte Gesichter zu kodieren“, erläutert Sprenger.
Ein Training und seine Grenzen
Obwohl die Forschung mittlerweile recht viel darüber weiß, wie das Gehirn Gesichter analysiert, mahnt der Tübinger Neurobiologe Niels Birbaumer zur Bescheidenheit. Er hat in seiner langjährigen Forschungsarbeit selbst die Grenzen des Wissens erfahren müssen. Ausgangspunkt war die Beobachtung von Psychiatern, dass Schizophreniepatienten große Schwierigkeiten haben, emotional negative Äußerungen im Gesichtsausdruck anderer Menschen zu erkennen. Also trainierte Birbaumers Forscherteam mit diesen Patienten, die Durchblutung in ihrer vorderen Insula zu verbessern, weil man in diesem Hirnareal das Zentrum der Erkennung von negativen Gesichtern vermutete.
Als Methode wählte man das Neurofeedback: Die Patienten beobachteten im Kernspintomografen ein farbiges Thermometer, das nach oben ausschlug, wenn die Durchblutung in ihrer Insula zunahm. Nach etwa zehn Übungsstunden hatten sie gelernt, wie sie diesen Wunschzustand erreichen konnten. Vor und nach dem Training wurde überprüft, wie gut die Patienten positiv und negativ gestimmte Gesichter erkennen konnten. Wie erwartet konnten sie negative nach dem Neurofeedbacktraining deutlich besser erkennen als vorher — doch sie bezahlten dafür mit einer deutlichen Verschlechterung, was das Erkennen positiver Mimik betraf. „Vermutlich hatte der Erregungsanstieg in den emotional negativen Hirnarealen gleichzeitig eine Hemmung anderer Regionen bewirkt“, so Birbaumer. Ein Nullsummenspiel.
In Gesichtern zu lesen, so zeigt sich, ist selbst mit solch ausgefeilten Methoden nicht beliebig trainierbar. Der Trost liegt im Umkehrschluss: Es ist uns nicht beliebig abtrainierbar. Auch in Zeiten der Digitalisierung bleibt das menschliche Gesicht für uns ein wichtiges, vielleicht das wichtigste Kontaktmedium.
Wie lange hält man's aus?
Um in den Augen eines Menschen lesen zu können, müssen wir zwangsläufig Blickkontakt mit ihm aufnehmen. Doch wie lange halten wir das aus? Wie lange dauert es, bis wir den Blick eines Menschen als unangenehmes Glotzen empfinden? Ein Forscherteam des University College in London hat sich dieser Frage angenommen.
Die englischen Forscher spielten ihren knapp 500 Probanden die Videos von Schauspielern vor, die ihrem Gegenüber, also dem Betrachter des Films direkt in die Augen schauten. Es zeigte sich: Wie lang ein Blickkontakt als angenehm empfunden wurde, war individuell verschieden. Bei den meisten Probanden dauerte es zwei bis fünf, im Durchschnitt etwas mehr als drei Sekunden. Kein einziger wollte den Schauspielern länger als neun Sekunden in die Augen schauen. War ein Teilnehmer angetan vom Blick seines virtuellen Gegenübers, weiteten sich seine Pupillen; war er es nicht, verengten sie sich.
Bleibt festzuhalten, dass Menschen, die sich gut kennen, deutlich länger Augenkontakt halten können. Und umgekehrt gibt es Krankheiten, die das fast unmöglich machen. So meiden Autisten in der Regel den direkten Blickkontakt. Schizophreniepatienten dagegen fällt er nicht schwer. Sie können die Augen und andere Areale im Gesicht ihres Gegenübers sogar besonders lange fixieren, was von diesem wiederum schon bald als unangenehm empfunden wird.
Literatur
I. Dziobek u.a.: In search of master mindreaders: Are psychics superior in reading the language of the eyes? Brain and Cognition, 58/2, 2005. DOI: 10.1016/j.bandc.2004.12.002
H. Eisenbarth, G.W. Alpers: Happy mouth and sad eyes: Scanning emotional facial expressions. Emotion, 11/4, 2011. DOI: 10.1037/a0022758
S. Ruiz, N. Birbaumer, R. Sitaram: Abnormal neural connectivity in schizophrenia and fMRI-brain-computer interface as a potential therapeutic approach. Frontiers in Psychiatry, 4, 2013
R.Q. Quiroga u.a.: Invariant visual representation by single neurons in the human brain. Nature, 435/23, 2005. DOI: 10.1038/nature03687
R.Q.Quiroga u.a.: Human single-neuron responses at the threshold of conscious recognition. PNAS, 105/9, 2008