Immer häufiger kursieren vermeintliche Nachrichten im Netz, die sich nach einer Recherche als Falschmeldungen entpuppen. Dabei zeigt sich, dass die Mechanismen sozialer Netzwerke gesellschaftliche Konflikte schüren – und das nutzen vor allem radikale Gruppen aus.

Berlin - Ein Asylbewerber sei in Berlin gestorben, ein russlanddeutsches Mädchen von Flüchtlingen vergewaltigt worden – zwei Nachrichten, die in den vergangenen Tagen breit durchs Netz kursierten, entpuppten sich schließlich als Falschmeldungen. Bis dahin allerdings drehten beide als vermeintliche Wahrheiten die Runde, viele Leser nahmen sie für bare Münze, ohne die Quellen zu prüfen. Die Empörung im Internet gipfelte in Mordaufrufen. Behörden kamen kaum hinterher, die Falschmeldungen zu enttarnen.

 

Warum glauben so viele Menschen, was in den sozialen Medien kursiert? Und warum haben diese Meldungen so eine Wucht? Aktuelle Studien lassen vermuten, dass die neue Dimension der Fehlinformation nicht nur gefühlt ist. Das Internet erlaube es einerseits, dass Nutzer Inhalte teilten und sich in Interessengruppen zusammenschließen, schreiben italienische und amerikanische Forscher um Michael del Vicaro vom Labor für Computational Social Science aus Lucca, Italien, im Fachjournal „Proceedings of the National Academy of Sciences“. Andererseits trage es aber auch zur schnellen Verbreitung unbestätigter Gerüchte und Verschwörungstheorien bei. Um dem dahinterliegenden Mechanismus auf die Spur zu kommen, haben die Forscher Facebook-Nachrichten aus fünf Jahren quantitativ ausgewertet.

Nutzer erhalten nur Inhalte, die ihrer Meinung entsprechen

Dabei untersuchten sie, nach welchen Mustern sich diese unter den Nutzern verbreiteten. Das Ergebnis: die Gruppen blieben unter sich. Anhänger von Verschwörungstheorien verbreiteten diese nur unter Gleichgesinnten, ebenso erging es Nachrichten aus der Wissenschaft: auch diese verließen ihre Interessengruppe in der Regel nicht. „Unsere Forschung zeigt, dass Nutzer dazu tendieren, Inhalte zu konsumieren und zu teilen, die einem bestimmten Narrativ angehören. Den Rest ignorieren sie“, schreiben die Forscher. Das führe zu sogenannten Echokammern, in denen die Nutzer nur Inhalte zu sehen bekommen, die ihrer Meinung entsprechen: sie hallen wie ein Echo von der Wand.

Andere Meinungen verschwinden dahinter. Politikwissenschaftler halten das für eine große Gefahr für die Demokratie: die massive digitale Fehlinformation wurde bereits auf dem World Economic Forum (WEF) 2003 zu einer der Hauptbedrohungen der Gesellschaft erklärt.

Was tun gegen Falschinformation und Hasskommentare?

Extremistische Gruppierungen machen sich solche Mechanismen zunutze: ist jemand erst einmal in einer solchen Echokammer gefangen, ist er offen für Radikalisierung. Die Algorithmen von Google und Facebook führen dazu, dass er vor allem seine Meinung zu sehen bekommt, er wähnt die Mehrheit hinter sich. So entstehen sogenannte Narrative, von denen eines lautet: Flüchtlinge sind kriminell. Entsprechende Botschaften – etwa gefälschte Bilder angeblicher Vergewaltigungsopfer – zirkulieren als „Wahrheit“ in den Echokammern Gleichgesinnter. Ein anderes Narrativ im Netz lautet: „Der Kampf gegen den IS ist ein Kampf des Westens gegen Muslime.“ Damit rekrutiert die Terrorgruppe Islamischer Staat derzeit erfolgreich Anhänger in den sozialen Medien.

Was tun gegen Falschinformation und Hasskommentare im Netz? Die großen US-Konzerne haben jeweils ihre eigenen Antworten darauf: Google programmierte seinen Ranking-Algorithmus so um, dass er Falschinformation bestraft: mutmaßlich falsche Inhalte sollen in der Suche erst weiter hinten auftauchen. Offen ist, wie gut das funktioniert. Facebook hat sich lange widersetzt, wenn Behörden oder Politiker aufforderten, Hasskommentare zu löschen. Auch die jüngsten Bitten von Justizminister Heiko Maas und Kanzlerin Angela Merkel, volksverhetzende Kommentare zu löschen, verhallten zunächst ungehört.

Sollten Hasskommentare automatisch gelöscht werden?

Die Informationsfreiheit im Netz dürfe nicht eingeschränkt werden, so ein Argument. Man setze eher auf die Nutzer, erklärte der Konzern, die sich inhaltlich distanzieren und problematische Posts melden sollten. Nun scheint sich Facebook dem Druck zu beugen: der Konzern beauftragte kürzlich eine dreistellige Zahl neuer Moderatoren in Berlin, die Hasskommentare prüfen und löschen sollen.

Immer wieder werden Rufe laut, entsprechende Kommentare in sozialen Netzwerken automatisch zu löschen. Aber können Computer diese überhaupt erkennen? „Schwierig“, sagt Anna Schmidt, Computerlinguistin der Uni Saarbrücken, die an dem Thema forscht. Entsprechende Programme verwenden unter anderem Stichwortlisten – sie suchen etwa nach Worten wie „umbringen“, „töten“ oder „sterben“. Aber solche Systeme liegen häufig daneben. Um nicht die Falschen zu treffen, müssten die Maschinen die inhaltliche Bedeutung von Sprache und den Kontext verstehen: Das ist noch zu komplex für die Algorithmen. „Inhalte automatisch zu löschen ist vielleicht auch nicht der richtige Weg“, fürchtet Schmidt: Die Gefahr des Missbrauchs sei groß. Wie bei allen Technologien könnte diese auch von den Falschen genutzt werden, von totalitären Regimes beispielsweise.

Radikale Gruppen nutzen soziale Medien extrem effektiv

Und genügt löschen überhaupt? „Radikale Gruppen nutzen soziale Medien extrem effektiv“, sagt Sasha Havlicek vom unabhängigen Londoner Thinktank Institute for Strategic Dialogue (ISD). Viele hätten eigene Websites aufgegeben und sich darauf beschränkt, in sozialen Netzwerken zu rekrutieren. „Inhalte zu löschen funktioniert in einer freien Gesellschaft nicht“, warnt Havlicek, „sie verbreiten sich trotzdem weiter.“

Der Islamische Staat etwa sei einer der erfolgreichsten Netzwerker im Internet. Um das Narrativ des bösen Westens gegen den Islam zu entkräften, sei eine Gegenrede nötig. Das wiederum sei keine Sache von Regierungen, da offizielle Vertreter von Menschen, die zur Radikalisierung neigen, als nicht glaubwürdig angesehen werden. Der ISD setzt sich deshalb dafür ein, diese Gegenrede mit Hilfe der sozialen Netzwerke zu etablieren: „Man braucht eine Kampagnen-Strategie“, so Sasha Havlicek.

Eine neue Initiative für Gegenreden zum Hass

Ein erster Schritt in diese Richtung wurde Ende Januar in Berlin gestartet: Mit Facebook Deutschland und verschiedenen Menschenrechtsorganisationen gründete Havlicek die „Initiative für Zivilcourage Online“, in deren Rahmen Facebook Nichtregierungsorganisationen finanziell und mit Marketingmaßnahmen unterstützt, eine Gegenrede zum Hass zu verbreiten. Die Amadeu-Antonio-Stiftung, die ebenfalls an dem Projekt beteiligt ist, setzt große Hoffnungen in die Initiative, so die Vorsitzende Anetta Kahane: schließlich gebe es einen direkten Zusammenhang zwischen Hassreden im Netz und Angriffen auf Flüchtlingsheime.