Wir Gutgläubigen

Falsche Nachrichten werden in sozialen Netzwerken mutwillig gestreut und entwickeln sich zu subjektiven Wahrheiten. Warum funktioniert das? Weshalb sind wir nicht misstrauischer?

Falsche Nachrichten sind eines der großen Themen unserer Tage – auch und gerade mit Blick auf den bevorstehenden Bundestagswahlkampf. Unzählige dieser sogenannten fake news werden in sozialen Netzwerken im Internet mutwillig gestreut, zuweilen versandt von Computerprogrammen, sogenannten ­social bots. Vor den amerikanischen Präsidentschaftswahlen beispielsweise wurde auf Facebook fast eine Million Mal eine Botschaft geteilt, derzufolge Papst Franziskus angeblich Donald Trump unterstütze. Frei erfunden!…

Sie wollen den ganzen Artikel downloaden? Mit der PH+-Flatrate haben Sie unbegrenzten Zugriff auf über 2.000 Artikel. Jetzt bestellen

Papst Franziskus angeblich Donald Trump unterstütze. Frei erfunden! „Solche Falschnachrichten beeinflussen die Meinungen und Haltungen der Leute ganz sicher“, erklärt Lisa Fazio von der Vanderbilt University in den USA.

Psychologen wie sie und Politologen haben in den vergangenen Jahren ein ums andere Mal ermittelt, wie leicht sich nachweisbare Lügen und halbgare Informationen in unser Gehirn einbrennen und zu subjektiven Wahrheiten avancieren. „Man sollte unbedingt wissen, dass es diese Illusion der Wahrheit gibt“, sagt der britische Psychologe Tom Stafford von der University of Sheffield, „und sich daran erinnern.“ Das ist vor allem dann wichtig, wenn es um wichtige politische oder gesellschaftliche Themen, Meinungen und Entscheidungen geht.

Wir sind umringt von zweifelhaften Informationen, nicht erst seit den Zeiten des Internets. Sie werden gestreut von der Werbung, von klassischen Medien wie Zeitungen, Zeitschriften und TV, im Netz – oder, ganz altbacken, in Unterhaltungen mit Familie, Freunden, Bekannten und Kollegen. Nicht immer werden sie aus verführerischer, bösartiger oder tendenziöser Absicht in die Welt gesetzt, sondern meist aus Unachtsamkeit und Fahrlässigkeit. „Allerdings haben Internet und soziale Medien das Problem der unkorrekten Informationen deutlich verschärft“, wie nicht nur Stafford sagt.

Man sollte denken, der Homo sapiens, der wissende Mensch, könne spielend Richtig von Falsch, Wahr von Gelogen unterscheiden. Wer lässt sich schon gerne an der Nase herumführen? Zudem sind uns potenzielle Abwehrmechanismen wie Vernunft und Logik, Abwägen und Kontrolle gegeben. Doch von wegen! „Unser Geist ist gerne bereit, sich von getürkten Informationen hinters Licht führen zu lassen“, sagt Stafford. Dafür gibt es Gründe. Die Mechanismen der Informationsverarbeitung im Gehirn wurden für das Überleben in der Steinzeit entwickelt, als die Menschen in Gruppen in der Wildnis lebten. Dort lauerten ständig Gefahren – Raubtiere, andere, feindlich gesinnte Gruppen und so weiter. Sich vor allem schnell an Informationen zur Gefahrenabwehr zu erinnern rettete unzählige Leben. „Damals wurden Verarbeitung, Bewertung, Speicherung und Abruf von Informationen aus dem Gedächtnis auf Effizienz getrimmt“, erklärt David Rapp von der Northwestern University in Evanston (USA).

Intuitive Daumenregeln waren in jenem Steinzeitalltag die beste Grundlage für rasche, effiziente Datenverarbeitung. Sie funktionieren zwar nicht immer, aber meistens. Das genügte, um einigermaßen durchzukommen. In diesem Sinne speichert das Gehirn eine Information umso fester, je vertrauenswürdiger die Person erscheint, die eine Information verbreitet, je mehr die Botschaft den eigenen Interessen entgegenkommt und je relevanter sie für einen selbst ist. Wenn das Kommunizierte dann nur halbwegs plausibel erscheint, kann man die entsprechende Gedächtnisspur leicht aus dem Fundus der Erinnerung fischen. Dann, so Stafford, geht unser Informationsapparat noch einen Schritt weiter: „Je besser und simpler wir uns an etwas erinnern, desto wahrscheinlicher glauben wir, dass es wahr ist.“ Und desto überzeugter geben wir die Information weiter.

Wiederhole eine Lüge oft genug, und sie wird zur Realität

Auch heute, in Zeiten der Informationsflut, nutzen wir noch die gleichen Mechanismen wie unsere Vorfahren in grauer Prähistorie. Weil es so leicht ist. „Es wäre heute mehr denn je unglaublich anstrengend, jede Information logisch und vernünftig zu überdenken“, sagt Tom Stafford. „Würden wir das ständig tun, hätten wir beim Abendessen noch mit den Nachrichten vom Morgen zu tun.“ Dazu kommt: „Unsere rationalen kognitiven Ressourcen sind begrenzt, wir müssen mit ihnen haushalten.“ Sehr weit ist es mit dem Homo sapiens nicht her.

Das wissen Populisten und Propagandisten seit den Zeiten von Joseph Goebbels und beuten die menschliche Neigung zur illusionären Wahrheit aus. Ihr Mantra Nummer 1: „Wiederhole eine Lüge oft genug, und sie wird zur Realität.“ Dieser sogenannte Wahrheitseffekt funktioniert auch dann, wenn es die Empfänger besser wissen und die Wahrheit kennen, wie Lisa Fazio in einer ernüchternden Studie entdeckte. Bisher dachten Wissenschaftler, dass man nur Unwissende mit der Wiederholung der Lüge in die Illusion der Wahrheit tricksen kann.

Ein übliches Experiment, das den Wahrheitseffekt untersucht, funktioniert folgendermaßen: Die Probanden geben an, ob Behauptungen wahr oder gelogen sind. Beispiel: „Eine Rosine ist eine getrocknete Traube.“ Manchmal sind die Behauptungen richtig wie diese. Manchmal aber bekommen die Versuchsteilnehmer eine gelogene Parallelbehauptung angeboten, etwa: „Eine Dattel ist eine getrocknete Traube.“

Nach einer minuten- bis wochenlangen Pause machen die Probanden das Ganze noch einmal. Einige der alten Behauptungen werden wiederholt, andere sind hingegen neu. Ergebnis: Ganz gemäß der Daumenregel neigen die Menschen dazu, die zuvor gesehenen Behauptungen als wahr zu beurteilen – egal ob sie wahr sind oder nicht. Einfach aus dem Grund, dass sie vertrauter erscheinen. Es spielt auch keine Rolle, welcher Art die wiederholten Informationen sind – ob es sich um Werbung für Produkte handelt oder um politische Slogans. Egal: Der Wahrheitseffekt erwies sich in vielen Studien als robust und real.

Je wichtiger ein Thema für jemanden ist, desto stärker der Effekt

Die Forscher um Fazio verfeinerten nun den Basisversuch. Sie präsentierten einerseits Botschaften, deren Wahrheitsgehalt den Probanden höchstwahrscheinlich geläufig war, etwa: „Der Pazifik ist das größte Meer der Welt.“ Andererseits wurden die Teilnehmer mit Behauptungen konfrontiert, deren Wahrheitsgehalt weitaus weniger Menschen kennen. Doch ob bekannt oder nicht, spielte für den Wahrheitseffekt letztlich keine Rolle. Lasen die Probanden wiederholt ein Statement wie: „Ein Sari ist der Rock, den die Schotten tragen“ (falsch), erhöhte das den Wahrheitsgehalt des Satzes, obwohl genau die gleichen Versuchsteilnehmer die Frage: „Wie heißt der Rock, den die Schotten tragen?“, richtig beantworten konnten. Wiederholte Informationen verarbeitet das Gehirn flüssiger als neue Nachrichten – so verstehen wir sie leichter, und falsche Informationen können als wahr erscheinen.

Auf besonders fruchtbaren Boden fällt die falsche Saat, wenn sie das eigene Weltbild unterstützt. „Unsere Wahrnehmung von Information ist entsprechend verzerrt“, kommentiert David Rapp das lange bekannte Phänomen: „Je wichtiger ein Thema für jemanden ist, desto stärker der Effekt.“ Interessanterweise erscheint die verzerrte Wahrnehmung keine Frage mangelnder Bildung oder Intelligenz zu sein, wie Dan Kahan von der Yale University beobachtet hat. Ein hoher Grad von beidem hält nicht davon ab, die wahren Fakten zu verneinen. Im Gegenteil. „Die Leute, die am meisten mit wissenschaftlichen Daten anfangen können“, erklärt der Psychologe am Beispiel des Themas Klimaerwärmung, „sind am meisten polarisiert.“

Überraschender als das sind allerdings Rapps jüngste Erkenntnisse. Demnach kann schon das einmalige bloße Lesen einer Falschmeldung zum Eindruck führen, dass sie wahr ist. In einer Serie von Experimenten bat Rapps Team Probanden, kurze Geschichten oder Statements zu lesen, die entweder wahre oder falsche Informationen enthielten. Dann überraschten die Wissenschaftler ihre Versuchsteilnehmer mit einem kleinen Quiz, bei dem unter anderem auch Daten aus den Geschichten oder Statements abgefragt wurden. Durch die Bank gaben die Leute vermehrt falsche Antworten – auch auf Fragen, die sie zuvor korrekt beantwortet hatten. Oder sie zweifelten an ihrem eigenen Wissen, waren verwirrt und brauchten länger, bis sie richtig antworteten. Überdies glaubten diese Probanden, dass sie die falschen Antworten bereits vor dem Experiment „gewusst“ hatten. Offenbar reicht es schon, eine einmal wahrgenommene Information abzurufen – und schon löst die Wiederholung der Information im Geiste einen Wahrheitseffekt aus.

Rapps Erkenntnisse treffen nicht nur auf belangloses Faktenwissen zu wie: ­„Budapest liegt an der Donau“ (wahr). Es gilt auch für „wissenschaftliche Konzepte“, wie der Forscher sagt, zum Beispiel: „Zu viel Zähneputzen kann Zahnfleischentzündungen auslösen“ (falsch). Und noch alarmierender, wie Studien belegen: Auch aus Romanen – also erfundenen Geschichten – verwenden wir bereitwillig Informationen. Sie verfälschen unser Wissen, was wir geflissentlich ignorieren.

Fake news: „Absolute Gefahr für die Demokratie“

Noch bedenklicher wird es, wenn sich korrekte und falsche Informationen vermischen – entweder in einer Informationsquelle oder in mehreren. Denn „wir erinnern uns meist sehr schlecht daran, woher Informationen stammen“, sagt Rapp. „Wenn Sie also mit einer Mixtur aus richtigen und falschen Informationen konfrontiert werden, bekommen Sie automatisch Probleme. So etwas erleben Sie in sozialen Medien ständig.“ Für Jason Reifler von der University of Exteter in Großbritannien sind das alles „deprimierende Ergebnisse“. Dass sich mit fake news und irrführenden Informationen so leicht Illusionen der Wahrheit erzeugen lassen, bewertet er als „absolute Gefahr für die Demokratie“. Viele Menschen – auch in Deutschland – verachten gar Fakten, die ihnen nicht passen, als Informationen ohne Wert.

Mit seinem Kollegen Brendan Nyhan untersucht Reifler seit langem den Effekt von Fakten auf die Wahrheitsfindung – bei so unterschiedlichen Themen wie dem Treibhauseffekt oder der Frage, ob Impfungen von Kindern Autismus auslösen. Von Schlagwörtern wie „postfaktisches Zeitalter“ hält Reifler gar nichts. „Fakten an sich hatten seit jeher eine nur begrenzte Überzeugungskraft“, sagt er, „es kommt immer darauf an, wer sie wie präsentiert. In diesem Kontext sind Fakten nicht mehr oder weniger überzeugungskräftig als vor 20 Jahren.“ Bedenklicher sei vielmehr, wie sehr der Einfluss der Lüge in der politischen Willensbildung zugenommen habe und „dass einige jahrzehntelang akzeptierte Fakten abhandengekommen sind, ohne die eine nützliche demokratische Debatte nur schwer zu führen ist“.

Auf reinen Fakten basierende Botschaften allein bringen wenig, wie Reifler und Nyhan in einer Studie mit 1700 Teilnehmern festgestellt haben. Im Gegenteil: Diese Strategie kann nach hinten losgehen und die Positionen einiger Empfänger verhärten, wahrscheinlich mehr unter Konservativen als unter Linksliberalen.

Allerdings haben die beiden Politologen auch ermittelt: Beispielsweise bei Polittalksendungen im Fernsehen „bringt der sofortige Faktencheck von Behauptungen auf jeden Fall etwas“. Er ist selbst dann fruchtbar, wenn er ein Ergebnis liefert, das den Einstellungen der Zuschauer widerspricht. Den größten Effekt erzielen dabei Informationen, die grafisch aufbereitet sind. Außerdem sollte man Politiker bei Talkshows daran erinnern, dass ihre Behauptungen überprüft werden: „Wir haben gezeigt, dass die Poltiker dann weniger Lügen verbreiten.“

In Anbetracht der bevorstehenden Bundestagswahl ist das Ergebnis kaum zu überschätzen. Denn wie gezeigt neigen wir nicht dazu, den Wahrheitsgehalt von Informationen zu hinterfragen. Doch bei gesellschaftlichen Topthemen sollten wir genau das tun, um uns gegen die Illusion der Wahrheit zu schützen, meint Stafford. Dazu gehört, zweimal zu überdenken, warum wir an das glauben, was wir glauben – ob etwas plausibel erscheint, weil es wahr ist, oder ob es plausibel erscheint, weil es wiederholt erzählt wurde. Stafford: „Wer Nachrichten und Behauptungen nicht entsprechend prüft, trägt zu einer Welt bei, in der Wahrheit und Lüge leicht zu verwechseln sind.“

Stafford, Optimist in turbulenten Zeiten, sieht Zeichen der Hoffnung: Mit oder ohne Wiederholung glaubten die Probanden in Lisa Fazios Versuchen die wahren Fakten öfter als die falschen Fakten. „Wir sind nicht komplett blind für die Wahrheit“, sagt er.

Wie Roboter Meinung machen

Wenn Sie glauben, im Internet noch nie falschen Nachrichten aufgesessen zu sein, hat Emilio Ferrara eine ernüchternde Botschaft: Wir sind offenbar nur bedingt in der Lage, falsche von echten Botschaften zu unterscheiden. Ferrara und sein Kollege Alessandro Bessi von der University of Southern California haben auf Twitter Nachrichten im Vorfeld der US-Präsidentschaftswahlen 2016 analysiert. Ihr Augenmerk richtete sich auch auf Botschaften, die von Computerprogrammen, sogenannten social bots verschickt werden. Diese Nachrichten sind häufig fake news.

Die Forscher fanden zu ihrem Erstaunen heraus: Die Nutzer haben Tweets von social bots gleich oft geteilt wie Tweets „echter“ Menschen. Viele Nachrichten werden unkritisch weitergeleitet. Soziale Medien, schließen die Forscher, vergiften die politische Willensbildung eher, als dass sie sie verbessern.

Dieser Artikel befindet sich in der Ausgabe: Psychologie Heute 4/2017: Lebenskunst