„Die Leute wissen nicht, wie unwissend sie sind“

Wir glauben, Bescheid zu wissen: darüber, wie eine Toilette funktioniert, oder über politische Vorgänge. Doch häufig erliegen wir dabei einer Wissensillusion, warnt der Psychologieprofessor Steven Sloman. Wir verwechseln unser eigenes Wissen mit dem anderer. Und das hat Konsequenzen

„Die Leute wissen nicht, wie unwissend sie sind“

Wir glauben, Bescheid zu wissen: darüber, wie eine Toilette funktioniert, oder über politische Vorgänge. Doch häufig erliegen wir dabei einer Wissensillusion, warnt der Psychologieprofessor Steven Sloman. Wir verwechseln unser eigenes Wissen mit dem anderer. Und das hat Konsequenzen

Herr Professor Sloman, wenn ich Sie fragen würde, wie eine Toilettenspülung funktioniert – könnten Sie mir das erklären?

Ja, das könnte ich.

Studien zeigen, dass die meisten Menschen dazu nicht in der Lage sind. Und das gilt nicht nur für Toiletten. Sie und Ihr Kollege Philip Fernbach schreiben in Ihrem Buch The Knowledge Illusion, eine Mehrheit wisse nicht, wie eine Kaffeemaschine funktioniert oder Klebstoff Papier zusammenhält.

Es ist in der Tat überraschend, wie unwissend Leute sind. 25 Prozent der Amerikaner wissen nicht, dass sich die Erde um die Sonne dreht; nur 43 Prozent können einen Richter des Supreme Court benennen. Daten wie diese zeigen, wie wenig allgemeines Wissen wir haben, nicht nur in den USA, auch in Deutschland. Aber der Punkt ist nicht, dass so viele unwissend sind, sondern dass sie nicht wissen, wie unwissend sie sind. Sie überschätzen ihr Verständnis, wie Dinge funktionieren. Leute denken, sie hätten eine Ahnung, wie eine Toilette funktioniert, aber wenn man sie bittet, es zu erklären, haben sie wenig zu sagen.

Wie messen Wissenschaftler die Kluft zwischen dem, was Leute wissen und was sie zu wissen glauben?

Die Methode wurde von Frank Keil, einem Psychologen von der Yale-Universität, entwickelt. Er bat Versuchspersonen, ihre Kenntnisse auf einer Sieben-Punkteskala einzuschätzen. Er fragte beispielsweise, wie gut Menschen beschreiben können, wie ein Reißverschluss funktioniert. Und danach forderte er sie auf, es ihm so genau wie möglich zu erklären. Abschließend sollten die Probanden nochmals ihr Verständnis über Reißverschlüsse bewerten. Und durchweg fielen die Bewertungen nun niedriger aus. Der Versuch, die Funktionsweise zu erklären, ließ die Illusion der Leute, sie verstünden es, zerplatzen. Keil nannte dies illusion of explanatory depth (etwa: Illusion der Erklärungstiefe). Wir haben diesen Effekt vielfach repliziert; er ist also sehr robust.

In welchen Bereichen zeigt er sich?

Keil hat ihn bei Objekten des täglichen Lebens wie Kugelschreibern und Zylinderschlössern gefunden. Auch bei weniger alltäglichen Dingen wie Helikoptern taucht er auf. Wir haben ihn im politischen Bereich nachgewiesen, etwa bei Sanktionen gegen den Iran, CO2-Emissionsrechtshandel oder dem staatlichen Krankenversicherungssystem.

Wie lässt sich die Illusion erklären?

Denken ist nicht nur ein Prozess, der in den Köpfen von Einzelpersonen abläuft, sondern ein gemeinschaftlicher Vorgang. Es existiert eine Wissensgemeinschaft, und in die klinken wir uns als Individuen ein, wenn wir denken. Auf der einen Seite erlaubt uns das wie keiner anderen Spezies, Sachen zu erschaffen. Das Problem ist jedoch, dass wir unsere eigenen Erkenntnisse mit dem verwechseln, was andere wissen: Wir glauben, die Kenntnisse anderer seien unsere eigenen.

Was meinen Sie genau damit: Als Individuen klinken wir uns in die Wissensgemeinschaft ein?

Die kognitiven Möglichkeiten eines Individuums sind begrenzt. Deshalb haben Menschen von Anbeginn der Zivilisation spezifische Fachkompetenzen entwickelt. Eine Person wurde Spezialist im Ackerbau, eine andere in Medizin oder beim Kochen. Wissenschaftler nennen das kognitive Arbeitsteilung. Als Menschen sind wir darauf programmiert, in Gruppen zu operieren. Das heißt, wir können unser eigenes Häppchen an Wissen mit den Häppchen, die andere besitzen, verknüpfen. Die kognitive Arbeitsteilung tritt spontan auf, wir nutzen sie ständig. Und sie läuft in allen möglichen Größenordnungen ab: in kleinen Gruppen, aber auch im großen Rahmen, in Städten und Ländern.

Und das macht uns in vielen Bereichen als Spezies so erfolgreich?

Genau. Die Wissensgemeinschaft erlaubt uns, Sachen wie iPhones und Boeings 747 zu entwickeln, unglaubliche Leistungen, die keine Gruppe von Schimpansen jemals hervorgebracht hat und wohl niemals hervorbringen wird. Aber sie öffnet auch die Tür zur Wissensillusion. Das Problem ist, dass wir oft daran scheitern, auseinanderzuhalten, was unsere eigenen Kenntnisse und was die Kenntnisse anderer Leute sind. Allein schon zu wissen, dass in der Gemeinschaft Sachkunde existiert, lässt Leute glauben, dass sie selbst sachkundig seien.

Woher wissen Sie das?

Wir haben direkte Belege. In einer Studie dachten wir uns neue wissenschaftliche Phänomene aus. Beispielsweise sagten wir einer Gruppe, dass Wissenschaftler ein Wettersystem mit Heliumregen entdeckt hätten, aber sie wüssten noch nicht, wie es zustande gekommen sei. Dann fragten wir die Probanden, wie gut sie das Phänomen erklären könnten. Wie zu erwarten, konnten sie es nicht erklären. Einer anderen Gruppe erzählten wir, die Wissenschaftler hätten das Phänomen bereits aufgeklärt, und fragten wiederum, wie gut sie es verstehen. Und nun bewerteten die Teilnehmer ihre Kenntnis auf einer Skala höher als zuvor. Nur weil die Forscher etwas wussten, glaubten die Teilnehmer, es nun auch besser zu verstehen, obwohl wir ihnen rein gar nichts über den Inhalt des Forscherwissens gesagt hatten.

Wenn wir in unseren Experimenten den Probanden sagen, die Erklärung der Wissenschaftler für den Heliumregen müsse geheim gehalten werden, sehen wir übrigens keinen Anstieg in der Bewertung ihres eigenen Wissens.

Heute haben wir durch das Internet Zugang zu einer unglaublichen Menge an Informationen. Hat sich dadurch die Wissensillusion verschlimmert?

Das hat sie. Mehrere Wissenschaftler haben in Studien gezeigt: Wenn man Leuten Zugang zum Internet gewährt, fühlen sie sich schlauer, als sie sind. In einem Experiment beantwortete eine Gruppe von Personen eine Liste von Fragen mithilfe des Internets; die zweite Gruppe durfte das Internet nicht benutzen. Dann wurden beide Gruppen nach ihrer Einschätzung gefragt, wie gut sie eine zweite Liste von Fragen beantworten könnten. Diejenigen, die bei der ersten Liste googeln durften, trauten sich mehr zu, obwohl die zweite Liste mit der ersten rein gar nichts zu tun hatte.

Sie warnen, die Wissensillusion führe zu systematischen Problemen.

In der Tat können Probleme auftauchen, die schwer zu bewältigen sind. Eines ist Hybris. Wenn Menschen ihre eigenen Kenntnisse überschätzen, kann es passieren, dass sie die Beiträge anderer nicht ausreichend würdigen. Am Arbeitsplatz macht das ein Teamwork sehr schwierig. Und wenn sich Vorgesetzte so verhalten, ist es meist fatal. Ein anderes Problem liegt darin, dass eine bestimmte Gruppe mit ihren Einsichten falsch liegen kann. Man sieht das bei Behauptungen, die wissenschaftlichen Erkenntnissen widersprechen.

Wie die Behauptungen, der Klimawandel habe nichts mit menschlichen Aktivitäten zu tun oder Impfungen verursachten Autismus?

Genau. Leute führen in der Regel keine streng rationale Beweisführung durch, um sich eine Meinung zu bilden. Es ist nicht so, als würde sich jeder Einzelne wissenschaftliche Erkenntnisse ansehen und alle Argumente sorgfältig abwägen, sondern man lässt sich von seinem sozialen Umfeld beeinflussen. Die eigentliche Entscheidung besteht darin, welche Gemeinschaft man repräsentieren will. Man kann sich dem wissenschaftlichen Konsens anschließen. Oder man geht davon aus, dass Wissenschaftler Opfer einer Verschwörung sind und dass der Einzige, der die Wahrheit sagt, der Arzt mit der abweichenden Einzelmeinung ist der wilde Thesen über den Zusammenhang zwischen Impfungen und Autismus aufstellt, und dann macht man sich dessen Behauptungen zu eigen. Die Frage ist, wem man glaubt. Insbesondere einfache kausale Modelle, die man sich leicht vorstellen kann, laden Leute dazu ein, sich zu einer Gruppe Gleichgesinnter zusammenzufinden.

Inwieweit steht die Polarisierung der Meinungen im politischen Bereich, wie man sie in den USA, aber auch in Europa beobachten kann, im Zusammenhang mit der Wissensillusion?

Es gibt Belege dafür, dass die Menschen mit den extremsten Meinungen am wenigsten wissen. In einem Experiment beispielsweise wurden Amerikaner aufgefordert, den Standort der Ukraine auf einer Karte zu identifizieren. Sie wurden auch gefragt, wie sicher sie seien, dass die USA in den Konflikt auf der Krim eingreifen sollten. Es zeigte sich, dass die Leute, die bei der Lokalisierung des Landes am weitesten danebenlagen, diejenigen waren, die sich am sichersten waren, wie sich die USA verhalten sollten.

Menschen haben extreme Meinungen, weil sie nicht wissen, was sie nicht wissen?

Zumindest bis zu einem gewissen Grade. Ich denke, dass die politische Polarisierung, die wir heute sehen, zum Teil durch eine Zunahme der Wissensillusion verursacht wird, die das Ergebnis vieler Kräfte ist. Eine Schlüsselkraft ist das Internet, weil es uns erlaubt, über unsere unmittelbaren geografischen Gemeinschaften hinaus Gruppen von Gleichgesinnten auf der ganzen Welt zu schaffen. Wir leben heute in Blasen wie noch niemals zuvor. Und dies verstärkt fehlerhafte Vorstellungen. Man mag denken, die eigene Meinung basiere auf echtem Verständnis. Aber eigentlich plappert man nur nach, was andere sagen, die auch nicht mehr wissen. Schlimmer noch: Man kann sich gegenseitig aufschaukeln und so immer extremere Sichtweisen entwickeln.

Gibt es Möglichkeiten, die negativen Folgen der Wissensillusion abzumildern?

Überzeugungen wie die, dass Impfungen Autismus hervorrufen, sind schwer zu verändern. Aufklärungsmaßnahmen über die Funktionsweise von Impfungen mögen ein bisschen helfen, aber man kann Leute nicht über alles und jedes aufklären. Wichtiger noch: Menschen bleiben in diesen Fragen oft kompromisslos, weil ihre Überzeugungen mit der Zugehörigkeit an eine Gemeinschaft verknüpft sind. Sie können oder wollen die Behauptung nicht fallenlassen, weil sie dies von einer Gemeinschaft, die ihnen sehr wichtig ist, abspalten würde.

Und in puncto Polarisierung von politischen Einstellungen?

Man kann versuchen, Leute dazu zu bekommen, über die Wirkungen von Politikmaßnahmen zu sprechen. Als wir in unseren Experimenten die Probanden baten, die Effekte einer Senkung des Pensionsalters oder der Einführung einer Pauschalsteuer zu erklären, ließ das nicht nur ihre Wissensillusion in sich zusammenfallen, wir konnten dadurch auch die Extremität ihrer Meinungen abmildern. Wir fragten sie vor und nach dem Erklärungsversuch, wie ihre Einstellung zu den Politikmaßnahmen sei. Und danach war sie im Schnitt weniger extrem. Auf Gruppenebene bedeutet das eine Verringerung der Polarisierung.

Aber darüber zu reden, wie staatliche Maßnahmen funktionieren, kann ganz schön kompliziert und anstrengend sein.

Das ist ein berechtigter Einwand. Wir müssen anerkennen, dass unsere Fähigkeiten, solche Unterhaltungen zu führen, begrenzt sind, weil wir nicht Experten für alles sein können. Nehmen Sie Obamacare; die Dokumente zur US-amerikanischen Gesundheitsreform umfassen mehr als 20 00 Seiten. Ich kann also versuchen, über die Wirkungen von Obamacare zu reden, aber sehr viel werde ich nicht sagen können, denn dazu müsste ich jahrelang Gesundheitspolitik studiert haben. Und das gilt für die meisten Themen im politischen Bereich. Ich muss mich also weiterhin auf die Wissensgemeinschaft, auf Expertise von anderen verlassen.

Ich denke, der richtige Ansatz besteht darin, die Kultur insgesamt zu verändern, indem man die Gemeinschaft als Ganzes skeptischer macht. Und das erreicht man, indem man ein Gespräch beginnt. Indem man darüber aufklärt, wie wichtig es ist, über Konsequenzen und Ergebnisse zu reden. Indem man darauf achtet, dass Experten echte Experten sind und nicht nur Menschen, die die Macht haben, ihre Meinung kundzutun. Indem man versucht, die Art und Weise zu ändern, wie Meinungsführer, Politiker und Journalisten kommunizieren. Der Trick besteht darin, den sozialen Diskurs so zu ändern, dass Experten mehr konsultiert werden und man mehr hört, wie sie über die Konsequenzen von Politik reden.

Was kann jeder Einzelne tun, um mit der eigenen Wissensillusion besser umzugehen?

Ich habe keine Patentlösung. Die Tatsache, dass wir uns auf die Gemeinschaft verlassen, betrachte ich als fundamentales menschliches Verhalten, das man nicht einfach wegtrainieren kann. Deshalb werden wir, wenn wir etwas hören, was unsere Meinung bestätigt, unkritischer sein als bei Informationen, die ihr widersprechen. So sind wir Menschen. Aber man kann versuchen, über das eigene soziale Umfeld, die Blase, in der man sich bewegt, hinauszublicken. Man sollte anerkennen, dass die eigenen Überzeugungen oft auch nicht fundierter sind als die Überzeugungen anderer Leute, und den eigenen Standpunkt also vielleicht nicht so ernst nehmen. Man sollte sich bemühen, bescheidener zu sein und anzuerkennen, dass man nicht alles wissen kann. Das kann regelrecht befreiend sein.

Steven Sloman ist Professor für Kognitionswissenschaften, Linguistik und Psychologie an der Brown University in Providence, Rhode Island. Seine Thesen zur Unwissenheit von Menschen veröffentlichte er zusammen mit Philip Fernbach in seinem aktuellen Buch The Knowledge Illusion. Why We Never Think Alone (Riverhead Books, New York 2017).

Den kompletten Artikel können Sie bei uns kaufen oder freischalten.

Dieser Artikel befindet sich in der Ausgabe: Psychologie Heute 8/2017: Ich lass mir Zeit!
file_download print