Hassbeiträge, Fake News, manipulierte Wähler: Mit einem neuen Newsfeed will Facebook-Chef Mark Zuckerberg den Ruf des weltweit größten sozialen Netzwerks retten. Leider haben Horrormeldungen immer noch gute Chancen – auch wenn sie falsch sind.

Digital Desk: Jörg Breithut (jbr)

Stuttgart - Eigentlich will Facebook doch nur ein neutraler Online-Marktplatz sein. Die Nutzer sollen sich dort treffen, um Urlaubsfotos auszutauschen, Katzenvideos zu teilen und über den neuen VfB-Trainer zu diskutieren. Doch diese Zeiten sind längst vorbei. Das größte soziale Netzwerk der Welt wird eben auch als politische Meinungsmaschine und Propaganda-Werkzeug missbraucht. Löschteams bekämpfen Hassbotschaften, Fake-News hetzen Bürger gegen Flüchtlinge auf und bezahlte Facebook-Statusmeldungen beeinflussen Brexit-Entscheidung und Bundestagswahlkampf. Das soziale Netzwerk mit mehr als zwei Milliarden Nutzern nimmt immer größeren Einfluss auf demokratische Prozesse und kann sich nicht mehr hinter der Fassade verstecken, nur eine Plattform für Meinungsvielfalt zu sein.

 

Dieses Mal reagiert Konzernchef Mark Zuckerberg auf die Kritik mit der Ankündigung, den Nutzern wieder mehr Platz im Newsfeed einzuräumen, während Marken und Medien ausgebremst werden. Dabei hieß es vor ein paar Monaten noch: Mehr Medien, weniger Nutzerfotos. Damals reagierte der Konzern auf die nachlassende Interaktion der Mitglieder.

Diese Kehrtwende wundert Wolfgang Schweiger von der Universität Hohenheim nicht. „Das soziale Netzwerk befindet sich auf einem Schlingerkurs“, sagt der Professor für Kommunikationswissenschaften gegenüber unserer Zeitung. Facebook reagiere meist in Echtzeit auf den öffentlichen Druck. „Ein kurzfristiges Vorgehen entspricht der Mentalität von IT-Unternehmen.“

Falschmeldung floriert im Feldversuch

Doch dieser Kurs könnte auch in die falsche Richtung führen. Was passieren kann, wenn die Nutzer mehr Spielraum im Newsfeed bekommen, zeigt ein Fall aus der Slowakei. Das europäische Land war eines der Testgebiete für die neue Facebook-Timeline, die künftig weniger Beiträge von Unternehmen und Nachrichtenseiten ausspielen soll – und mehr Statusmeldungen der Nutzer. Laut einem Bericht der „New York Times“ führte der Feldversuch dazu, dass sich Falschmeldungen rasant verbreiteten.

Bei dem Test im Dezember vergangenen Jahres kursierte unter den slowakischen Nutzern die Geschichte eines Muslims, der von einem ehrlichen Finder seine verlorene Geldbörse zurück bekommen haben soll. Der Mann sei so froh darüber gewesen, dass er dem Finder verraten habe, dass ein terroristischer Anschlag auf einen christlichen Markt geplant sei.

Das Problem: bei der Geschichte handelte es sich um eine Falschmeldung. Das hinderte die Nutzer allerdings nicht daran, die Meldung bei Facebook massenhaft zu verbreiten. Die erfundene Terrorwarnung wurde so oft geteilt, dass die örtliche Polizei sich genötigt sah, die Falschmeldung in einem öffentlichen Beitrag richtig zu stellen – der allerdings längst nicht so viele Leser erreichte, da er auf einer offiziellen Facebook-Seite gepostet wurde. Damals hieß es noch bei Facebook, dass es keine Pläne gebe, die in der Slowakei getestete Timeline auf weitere Länder auszubreiten. Doch genau das hat Mark Zuckerberg nun getan.

Horrormeldungen haben gute Chancen

Wolfgang Schweiger bestätigt, dass solche Horrormeldungen immer gute Chancen in sozialen Netzwerken haben. „Am besten verbreiten sich alarmistische, hetzerische und witzige Beiträge“, sagt der Medienwissenschaftler. Schließlich habe Facebook grundsätzlich kein Interesse an Qualität und Relevanz. „Es ist ein Unternehmen, dem es um möglichst hohe Werbeeinnahmen geht.“ Dass solche gern geklickten Horrorbeiträge nicht unbedingt wahr sein müssen, zeigt eine Auswertung des Nachrichtenportals „Buzzfeed“, das dafür die erfolgreichsten Facebook-Meldungen über Angela Merkel ausgewertet hat. Das Ergebnis: Bei sieben der zehn Top-Beiträge aus den vergangenen Jahren handelt es sich um Falschmeldungen über die Kanzlerin, geteilt von fragwürdigen Quellen wie „Gloria.tv“, „debeste.de“ und „kulturstudio.wordpress.com“.

Darunter finden sich geschmacklose Märchen wie „Merkel wurde bei Verkehrsunfall überfahren“ und frei erfundene Aussagen wie „Deutsche müssen Gewalt der Ausländer akzeptieren“. Unter den zehn Merkel-Meldungen finden sich lediglich drei wahre Berichte, alle geteilt von seriösen Nachrichtenseiten.

Flagge gegen Fake News scheitert

Die meisten Maßnahmen von Facebook gegen Fake-News sind bisher gescheitert. Im März vergangenen Jahres hatte das soziale Netzwerk einen Button eingeführt, damit Nutzer offensichtliche Falschmeldungen markieren konnten. Doch vor einigen Wochen entfernte Facebook den roten Warnhinweis wieder. Der Grund: die Markierung erzielte genau den gegenteiligen Effekt. Verschwörungstheoretiker fühlten sich von der Fake-News-Flagge nur bestätigt und mutmaßten, dass die vermeintliche Wahrheit hinter dem Hinweis verschwiegen werden soll.

„Falschmeldungen schaden der Community, untergraben das Vertrauen und sorgen dafür, dass Menschen schlechter informiert sind“, sagte ein Facebook-Sprecher gegenüber unserer Redaktion. Die meisten Falschmeldungen seien finanziell motiviert. Die Konsequenz: Wer falsche Nachrichten verbreitet, soll abgewertet werden und darf vorübergehend keine Anzeigen mehr schalten. Doch Facebook kann nur bedingt in den Nachrichtenfluss eingreifen – und bleibt abhängig von Faktenprüfern und Nutzern.

Wie der neue Newsfeed gegen die Verbreitung von Fake News und Hassbeiträgen wirkt, wird sich erst noch zeigen. Wolfgang Schweiger sieht aber durchaus Chancen für die neue Timeline: „Es ist sinnvoll auszuprobieren, wie das Publikum darauf reagiert.“ Wenn mit den Markenseiten auch Fake-News-Schleudern seltener in der Timeline auftauchen, dann sei das eine gute Sache. Das Risiko sei, dass eben auch etablierte Medien darunter leiden könnten. „Wenn journalistische Inhalte abgewertet werden, dann wäre das enttäuschend“, gibt Wolfgang Schweiger zu bedenken.