„Du nutzloses Stück Dreck!“

Sogenannte Trolle beleidigen, hetzen, drohen im Internet. Was steckt hinter ihrem Hass? Und was kann man dagegen tun? Ein Erklärungsversuch.

So eine hohle Frucht! Gleich in das Mähwerk von einem Mähdrescher werfen!“ „Ich schlage keine Frauen, aber bei dir würde ich eine Ausnahme machen.“ „Du fette, dämliche Ratte.“ „Du ekelhaftes, fettes Schwein.“

Das sind Beiträge, die auf Facebook geschrieben wurden. Sie landeten alle auf der Seite von Katrin Göring-Eckardt; die Grünen-Politikern zitiert sie in einem YouTube-Video, mit dem sie dokumentieren will, welcher Ton gerade herrscht in einigen Teilen des Internets. Was die Thüringerin zur Zielscheibe…

Sie wollen den ganzen Artikel downloaden? Mit der PH+-Flatrate haben Sie unbegrenzten Zugriff auf über 2.000 Artikel. Jetzt bestellen

des Internets. Was die Thüringerin zur Zielscheibe der Hassbeiträge werden ließ, war im Grunde eine Bagatelle: Sie hatte sich im Bundestag einen selbstironischen Scherz über Flüchtlinge und Ostdeutsche erlaubt.

Noch schlimmer liest sich der Fall von Caroline Criado-Perez. Der britischen Publizistin war aufgefallen, dass auf den heimischen Geldscheinen außer der Queen bald nur Männer zu sehen sein würden. Also startete sie eine Kampagne, die vor allem zwei Dinge bewirkte: Erstens, dass ab 2017 ein Porträt der Dichterin Jane Austen die Rückseite der neuen Zehn-Pfund-Note zieren wird. Und zweitens, dass Criado-Perez’ Twitter-Account zur Zielscheibe heftigsten Hasses wurde. Innerhalb weniger Wochen erhielt sie mehrere Zehntausend Posts – im Durchschnitt dauerte es stets nur drei Sekunden bis zur nächsten Nachricht. Mehrere Hundert davon gingen weit über den Tatbestand der Beleidigung hinaus („Stirb, du nutzloses Stück Dreck!“ „Ich werde dich finden!“ „Ich schätze, manche Frauen brauchen von Zeit zu Zeit einfach ’ne tüchtige Vergewaltigung“). Zwei der Drohbriefschreiber wurden später von einem britischen Gericht zu Haftstrafen verurteilt.

Was passiert da im Internet? Woher kommt der Hass? Fünf Thesen und der Versuch einer Antwort.

Schuld an allem ist die Anonymität

Das ist zum Teil richtig. Es gibt zu diesem Punkt mehrere Studien, die sich methodisch alle ähneln. Man nimmt eine Reihe von Kommentaren, die unter Klarnamen ins Netz gestellt wurden. Dann vergleicht man deren Inhalt und Sprache mit anonymen Kommentaren. Die Statistik offenbart, was jeder vermuten würde: Die anonymen Posts enthalten mehr Provokationen, mehr Beleidigungen, mehr unzivilisiertes Verhalten. Warum ist das so? Die meisten Psychologen sehen einen Prozess am Werk, den man „Deindividuation“ nennt. In der Welt außerhalb des Internets ereignet er sich dort, wo Menschen aufhören, selbstverantwortliche Personen zu sein: in der Fankurve während eines Fußballspiels; in Gruppen, die Uniformen tragen – oder wenn man am 14. Juli 1789 in Paris gerade dabei ist, die Bastille zu stürmen und dadurch die Französische Revolution loszutreten. In all diesen Situationen tun wir Dinge, die wir als Einzelmensch niemals tun würden – wir werden Teil eines wütenden Mobs. Einige der inspirierendsten Stücke psychologischer Literatur wurden über dieses Phänomen geschrieben: Gustave Le Bons Psychologie der Massen oder Freuds Massenpsychologie und Ich-Analyse (siehe auch Seite 12).

Doch wird tatsächlich alles gut, wenn man die Anonymität im Netz beseitigt? Genau das dachten Politiker in Südkorea und erließen ein entsprechendes Gesetz. Anlass dafür war ein tagespolitisches Ereignis: Eine bekannte Schauspielerin hatte sich nach Wochen perfider (und anonymer) Internethetze erhängt. Doch drei Jahre später erklärten Koreas Verfassungsrichter den Erlass für nichtig. Ihr Hauptargument: Die Anonymität im Netz sei ein wesentlicher Beitrag zur Meinungsfreiheit. Man kritisiert Missstände einfach offener, wenn man keine persönlichen Konsequenzen befürchten muss. Mit anderen Worten: Eine umfassende Klarnamenpflicht schwächt die Demokratie eines Landes. Doch es gab noch ein zweites Argument: Eine Studie hatte nämlich gezeigt, dass die Anzahl der Pöbeleien unter dem neuen Gesetz praktisch nicht zurückgegangen war.

Wer Hassbotschaften versendet, ist ein schlechter Mensch

Da könnte etwas dran sein. Zumindest dort, wo es sich bei den Pöbeleien um sogenanntes Trolling handelt. Trolling geschieht nicht aus einem Impuls der Wut heraus oder aus der Hitze einer heftigen Diskussion. Einem Troll geht es nur um den Spaß daran, andere zu provozieren. Die Analogie zu seinen Beleidigungen ist die geworfene Stinkbombe in der schulischen Aula. Kanadische Forscher fanden in einer Studie eine signifikante Verbindung zwischen Trollverhalten und einem Charakterzug, den Persönlichkeitspsychologen als „dunkle Tetrade“ bezeichnen: einen Mix aus übertriebener Selbstbezogenheit (Narzissmus), manipulativem Verhalten (Machiavellismus), Rücksichtslosigkeit (Psychopathie) und der Lust daran, andere zu quälen (Sadismus). „Cybertrolling erscheint als Internetmanifestation eines alltäglichen Sadismus“, schreiben die Autoren.

Diese kanadische Studie wird recht häufig zitiert – und das ist kein Wunder: Sie bestätigt genau das, was man irgendwie immer schon geahnt hat. Wer so schlimme Dinge schreibt, kann kein guter Mensch sein. Ist die Sache damit erledigt? Natürlich nicht. Denn die kanadische Studie leidet an zumindest zwei Schönheitsfehlern: Sie bezieht ihre Daten ausschließlich aus Fragebögen – wie sich die Probanden tatsächlich im Netz verhielten, wurde nie direkt untersucht. Zum anderen rekrutierten die Forscher ihre Versuchspersonen über einen ungewöhnlichen Kanal, nämlich über Amazon. Dort kann man für wenige Cents sogenannte „Klick-Arbeiter“ (mechanical turks) für einfache Onlineaufgaben mieten. Für die Forscher ist das praktisch, weil sie auf diesem Weg sehr schnell und preiswert an eine relativ hohe Zahl von Studienteilnehmern kommen. Wirklich repräsentativ werden die Ergebnisse dadurch aber nicht.

Das Internet lässt sich nicht kontrollieren

Stimmt nur zum Teil. Soziale Medien haben seit vielen Jahren Regeln für das, was auf ihren Seiten erlaubt ist und was nicht. Facebook verbietet zum Beispiel Bilder von nackten Frauenbrüsten oder Filme von Enthauptungen. Das geschieht nicht aus Moralgefühl, sondern aus wirtschaftlichen Überlegungen: Wenn Oma und Opa auf Facebook sind, um mit ihren Enkeln in Kontakt zu bleiben, dann will man diese älteren Kunden natürlich bei der Stange halten. Alles soll draußen bleiben, was sie schockieren und für immer vergraulen könnte.

Doch wie kontrolliert man ein soziales Netzwerk, das von einer Milliarde Menschen täglich genutzt wird? Man denkt: mit Computerprogrammen. Doch tatsächlich sind es in vielen Fällen echte Menschen, die sich dieser Aufgabe annehmen. Content moderation nennt sich ihr Beruf. Wie das geschieht, kann man in einer aufrüttelnden Reportage des US-Magazins Wired nachlesen. Viele der firmeneigenen Onlinepolizisten arbeiten unter enormem Zeitdruck für eine Handvoll Dollar auf den Philippinen, bezahlen aber zugleich einen hohen Preis für ihre Arbeit: Die Burnoutraten sind enorm, nur wenige halten länger durch als ein paar Monate; eine Therapeutin bezeichnet die Symptome der Betroffenen als eine Art posttraumatische Belastungsstörung – ausgebrannte content moderators sind psychisch so kaputt wie Kriegsveteranen, die gerade aus dem Afghanistaneinsatz zurückkehren.

Deshalb (und natürlich, um Kosten zu sparen) arbeiten Experten an computergestützten Lösungen. Wäre es zum Beispiel nicht großartig, wenn eine Software frühzeitig erkennen könnte, dass ein Teilnehmer gar nicht wirklich diskutieren will – sondern nur dabei ist, um andere zu beleidigen und zu provozieren? Der Informatiker Justin Cheng von der Stanford University hat ein solches Programm geschrieben. Die Software benötigt nach Chengs Angaben nur zehn Blogeinträge, um mit 80-prozentiger Sicherheit vorhersagen zu können, ob ein Teilnehmer später von den Moderatoren gesperrt werden wird. Interessant: Chengs Programm interessiert sich gar nicht für die Inhalte der einzelnen Einträge – sondern nur dafür, wie die Community auf die Beiträge reagiert. Mit anderen Worten: Das Diskussionsverhalten einer Gruppe verändert sich sichtbar durch einen Störenfried. Und genau diese Tatsache werden Internetunternehmen in Zukunft vermutlich nutzen, um Trolle automatisch und frühzeitig erkennen zu können.

Die Technologiefirmen drücken sich vor ihrer Verantwortung

Das ist eher nicht richtig. Die großen Unternehmen leisten sich eigene Forschungsteams, die untersuchen, wie Hassbeiträge entstehen, welche Auswirkungen sie auf das Netzwerk haben und was man dagegen tun kann. Es mag verrückt klingen, aber die erstaunlichsten Ergebnisse liefern dabei ausgerechnet die Hersteller großer Computerspiele. Bestes Beispiel ist League of Legends, das mit 27 Millionen aktiven Usern pro Tag beliebteste Onlinespiel der Welt. Warum ist rüpelhaftes Verhalten ausgerechnet in der notorisch ruppigen Gamer-Szene ein Problem? Weil die Statistiken zeigen, dass einige Teilnehmer das Spiel meiden, wenn sie wiederholt während eines Matches beleidigt werden. Offensive language ist schlecht fürs Geschäft. Jeffrey Lin, ein amerikanischer Verhaltensforscher, der beim Spieleentwickler Riot Games das player behavior team leitet, hat in mehreren Vorträgen die Maßnahmen verraten, mit denen man die Spieler von League of Legends zu mehr Fairness erzieht:

– Die Meinung der anderen Spieler zählt. Nach jedem Match werden die Spieler gebeten, ihre Gegner und Mannschaftskameraden zu bewerten, sie für faires Verhalten zu loben – oder für rüpelhaftes Benehmen zu „reporten“. Anders als bei Facebook oder Twitter holt der Betreiber also aktiv Bewertungen über seine Kunden ein. Die Daten zeigen etwas Überraschendes. Zwar wird – ähnlich wie beim Fußball – in praktisch jedem Spiel zwischendurch geflucht, provoziert und gemeckert. Die allermeisten Teilnehmer erweisen sich jedoch als ausgesprochen fair. Auch sie werden gelegentlich „reported“, aber das geschieht eher selten. Regelmäßig aus dem Rahmen fällt nur ein Prozent der Spieler.

– Schnelle Strafen und Verwarnungen. Schwere Fälle von beleidigender Sprache kommen vor ein Schiedsgericht („Tribunal“) und werden relativ schnell geahndet. Wer schreibt: „Ich hoffe, deine Mutter stirbt an Krebs“, erhält vor seinem nächsten Spiel eine schriftliche Verwarnung per E-Mail. Wer sagt: „Bring dich um, los, tu es!“, wird für einige Tage vom Spielbetrieb ausgeschlossen – zusammen mit einem speziellen Feedback. Man zeigt den Spielern die Passage im Chatverlauf, für die man sie bestraft.

– Die Aufmerksamkeit der Spieler lenken. Wer viel redet, redet auch viel Unsinn. Dieser Gedanke brachte die Verhaltensdesigner von Riot Games auf eine Idee: Wer andere beleidigt und dafür „verurteilt“ wird, darf in den folgenden Spielen nur noch eine Handvoll Botschaften an seine Mitspieler verschicken. Die Folge: Die Spieler achten viel bewusster darauf, was sie den anderen mitteilen und was sie besser für sich behalten. „71 Prozent aller Spieler werden nur ein einziges Mal bestraft – und danach nie wieder auffällig“, erklärt Lin.

– Unbewusste Beeinflussung. Jeffrey Lin und ein Team experimentierten auch mit einem sogenannten priming: Kurz vor Spielbeginn schickten sie kurze Botschaften, die für einige Sekunden auf dem Bildschirm aufleuchteten. Einige dieser Botschaften zeitigten im Versuch eine erstaunliche Wirkung. Der Satz „Deine Teamkameraden spielen schlechter, wenn du sie nach einem Fehler beleidigst“ reduzierte die Zahl der Beleidigungen um mehr als zehn Prozent.

Die Wut im Netz ist nur Ausdruck einer stillen Wut in der Gesellschaft

Es gibt einige theoretische Überlegungen, die für diese Behauptung sprechen. Sehr viele Menschen nutzen Facebook und Twitter inzwischen als wichtigste Nachrichtenquelle. Dort sieht man vor allem das, was die eigenen Freunde gut finden. Wer zum Beispiel meint, Deutschland solle keine Flüchtlinge aufnehmen, dessen Freunde denken darüber vermutlich ähnlich. So liefert einem Facebook Tag für Tag eine Menge Bestätigung für die eigene Haltung und erzeugt dadurch das, was Fachleute eine „Filterblase“ nennen: viel Bestätigung, wenig Gegenmeinung. Sobald man sich jedoch aus dieser Meinungsblase entfernt und zum Beispiel die Tagesthemen sieht oder die Süddeutsche Zeitung liest, reibt man sich die Augen und fragt sich, ob die Journalisten in Deutschland noch alle Tassen im Schrank haben. Auf Facebook waren sich doch noch alle einig – jetzt liest und sieht man auf einmal etwas völlig anderes. Man denkt: „Lügenpresse!“ An dieser Stelle kommt eine zweite Theorie ins Spiel, die aus den 1970er Jahren stammt: Wer den Eindruck hat, mit seiner Meinung deutlich in der Minderheit zu sein, behält sie für sich. Die Kommunikationswissenschaftlerin Elisabeth Noelle-Neumann prägte dafür den Begriff der „Schweigespirale“. Heute bekommt die schweigende Minderheit über die sozialen Medien das Gefühl, gar nicht allein zu sein. Die Filterblase kann sprechen. Sie sagt: „Was du denkst, stimmt ganz genau!“ Man äußert sich, wird zur Gruppe – und trifft außerhalb der Blase nur noch auf Verrückte, Lügner und Dummbeutel. Die oft extreme Sprache im Netz entsteht schlicht aus der Überzeugung, im Recht zu sein.

Wie kann man sich gegen Hass-Attacken wehren?

Wer sich mit einer Meinung an die Öffentlichkeit wagt – und genau das ist das Internet: ein Ort der Öffentlichkeit–, der sieht sich gelegentlich heftigen Reaktionen ausgesetzt. Fälle wie die von Katrin Göring-Eckardt oder Caroline Criado-Perez ereignen sich praktisch täglich. Es gibt eine ganze Reihe von Gegenstrategien. Sie alle können helfen. Zumindest manchmal.

Die Hasskommentare in eine größere Öffentlichkeit bringen. Der Vorteil dieser Strategie: Man verharrt nicht in der Rolle des wehrlosen Opfers, sondern wird aktiv und holt sich dadurch Hilfe und Unterstützung. Dafür gibt es viele Möglichkeiten. Man kann – wie Katrin Göring-Eckardt – ein Video drehen und die schlimmsten Kommentare vorlesen. Eine brasilianische Kampagne namens „Criola“ geht einen anderen Weg: Sie spürt rassistische Kommentare im Netz auf, ermittelt den Ort, von dem aus sie geschrieben wurden – und stellt den Hetzspruch im entsprechenden Dorf oder Stadtviertel als riesiges Plakat an den Straßenrand.

Hasskommentare ignorieren. Das ist eine der ältesten Netzweisheiten überhaupt: „Don’t feed the trolls“ („Füttere die Trolle nicht“). Wer auf die Störer nicht reagiert, nimmt ihnen den Spaß an der Sache. Sie werden sich früher oder später ein neues Ziel suchen. Leider hilft diese Methode nicht immer. Trolle – also jene, die andere nur aus Freude am Krawall beleidigen – haben wirksame Gegentechniken gegen das Nicht-gefüttert-Werden entwickelt. Eine davon ist der Trick mit der sogenannten Sockenpuppe, einem zusätzlichen Benutzerkonto. Wie ein Bauchredner schlüpft man dabei in zwei Rollen gleichzeitig. Rolle Nummer eins spielt den Störenfried („Hey, ihr Feministinnen, zurück in die Küche mit euch!“), Rolle Nummer zwei übernimmt den Part der angeblich beleidigten Diskussionsteilnehmerin („Hör auf, uns zu provozieren“). Danach lässt man den Konflikt eskalieren („Du bist wohl länger nicht mehr richtig gevögelt worden“). Ein solcher Schlagabtausch bleibt in den sozialen Medien selten unkommentiert – und der Troll bekommt genau den Zoff, den er will.

Naming and Shaming. Man macht den Urheber von Hassbotschaften zuerst ausfindig und anschließend lächerlich. Die australische Journalistin Alanah Pearce bekam per Facebook wiederholt Vergewaltigungsdrohungen. Also begann sie, die Identität des Schreibers zu recherchieren. Es war, wie sich herausstellte, ein Junge, der noch bei seinen Eltern wohnte. Pearce rächte sich mit dem Schlimmsten, was man einem Jugendlichen antun kann: Sie verpetzte ihn bei seiner Mutter. Deren Reaktion sorgte im Netz für eine Menge Spott: „Oh, der kleine Scheißer! Danke für den Tipp. Ich werd’ mal ein paar Takte mit ihm reden.“

Beiträge löschen. Klar: Gelöschte Beiträge sind nicht mehr sichtbar, man putzt den Vogelmist von der Fensterbank – die Fensterbank wird sauber. Das klingt vielversprechend. Leider funktioniert es nur selten. Im Zweifel folgen einer gelöschten Nachricht 20, 30 oder gar 100 neue. Mit ein wenig Programmierkenntnis kann man sie von einem Computerprogramm erstellen und verschicken lassen. Löschen muss man sie dagegen von Hand – und sitzt damit praktisch immer auf der Verliererseite des Spiels.

Einfach nicht mehr ins Internet gehen. Manchmal erscheint das tatsächlich als letzte Möglichkeit, dem Hass zu entgehen. „Das Internet ist dann für eine Weile kaputt“, schreibt die US-Publizistin Sarah Jeong in ihrem klugen Aufsatz The Internet of Garbage. Darin entwickelt sie eine erhellende Metapher: Trolling, Belästigung und Hass sind in ihren Augen eine Art Müll, der sich im Netz ansammelt und soziale Medien für manche Teilnehmer zeitweilig unbrauchbar macht. Die Frage laute deshalb nicht, warum Leute „so etwas Schlimmes tun“, sondern schlicht: „Wer bringt den Müll raus?“ Der einzelne User, so Jeong, sei damit immer überfordert. Der Job liege bei den Technologiefirmen, die einfach mehr Geld in die Hand nehmen müssten, um, na ja, eben den Müll nach draußen zu bringen.

Aggression ernst nehmen, ohne sich davon anstecken zu lassen. Diese Strategie stammt von der Netzexpertin Kathrin Passig. Sie sagt in einer Kolumne für den Bayerischen Rundfunk: Den richtigen Umgang mit dem Hass im Netz kann man von gut geschulten Mitarbeitern einer Beschwerdehotline lernen. Wer dort glaubt, die Welt sei voller bösartiger Deppen, hält diesen Job nicht lange durch. Manche jedoch machen ihn über Jahre und haben auch noch Freude an ihrer Arbeit. Wie gelingt das? Indem man sich vom rauen Ton nicht anstecken lässt, sondern zunächst an das Anliegen des anderen denkt. „Profis absorbieren den Zorn der anderen wie ein Sandstrand, der die Energie der Brandung aufnimmt.“

Jochen Metzger

Literatur

  • Catarina Katzer: Cyberpsychologie. Leben im Netz: Wie das Internet uns ver@ndert. Dtv, München 2016

  • Justin Cheng, Cristian Danescu-Niculescu-Mizil, Jure Leskovec: Antisocial behavior in online discussion communities. Vortrag auf der International Conference on Weblogs and Social Media in Oxford 2015

  • Erin E. Buckels, Paul D. Trapnell, Delroy L. Paulhus: Trolls just want to have fun. Personality and Individual Differences 67, 2014, 97–102

Dieser Artikel befindet sich in der Ausgabe: Psychologie Heute 6/2016: Drüber stehn!