Wie reagiert die Politik?

Justizminister Heiko Maas hat nun das sogenannte Netzwerkdurchsetzungsgesetz auf den Weg gebracht. Darin geht es im Wesentlichen um Bußgelder: Der Betreiber eines sozialen Netzwerks muss – wenn das Gesetz beschlossen wird – rechtswidrige Inhalte innerhalb einer Frist löschen. Während einige Verbände die Meinungsfreiheit in Gefahr sehen, findet Jun das den richtigen Weg. Auch wegen des sogenannten Vollzugsdefizits – der praktischen Unmöglichkeit, deutsches Recht gegenüber Facebook durchzusetzen. „Medienanstalten haben immer wieder gesagt, dass sie gegen Facebook nicht ankommen, weil es nicht greifbar ist.“ Das neue Gesetz sieht auch eine verpflichtende Adresse im Inland vor.

 

Wer ist ethisch verantwortlich?

Diese Videos werden nicht von Facebook, sondern von seinen Nutzern hochgeladen. Jeder kann das machen, Facebook schließt zunächst einmal niemanden aus. Und wie es so ist an Orten, an denen sich ein gesellschaftlicher Querschnitt sammelt: Es sind immer auch Kriminelle darunter. Allerdings erreichen solche Videos – ähnlich wie reißerische Falschmeldungen – eine hohe Verbreitung. Es liegt also an jedem Einzelnen, Posts mit Gewalt oder Lügen nicht weiterzuverbreiten.

Eingriff oder Meinungsfreiheit?

Natürlich sollte nichts gezeigt werden dürfen, das eindeutig strafbar ist. Aber es gibt Zwischenformen. Wenn hier ein zu starkes Eingreifen gefordert wird, so die Sorge vieler Netzaktivisten, könnte die Meinungsfreiheit eingeschränkt werden. Facebook-Chef Mark Zuckerberg betont immer wieder, sein soziales Netzwerk sei nur eine Plattform und kein Medium, keine Redaktion und müsse sich von daher auch weder an die ethischen journalistischen Selbstverpflichtungen halten noch unterliege es den rechtlichen Standards eines Mediums.

Allerdings kuratiert Facebook seine Inhalte eben doch. Sie werden nicht in der Reihenfolge des Eingangs in die Newsfeeds der Nutzer gestellt, sondern von Algorithmen bewertet und sortiert. Das kann man durchaus als redaktionelles Eingreifen bewerten, so dass Facebook in Erwägung ziehen muss, dann auch journalistische Verantwortung zu übernehmen.

Wieso handelt Facebook oft nicht?

Der Konzern fühlt sich deutschem Recht nur bedingt verpflichtet. Immer wieder wird argumentiert, das Internet sei nun mal eine weltweite Erscheinung, die sich nicht lokal regulieren ließe. Aber das ist Quatsch. Natürlich ist es möglich, bestimmte Inhalte in bestimmten Ländern nicht zu zeigen. Jeder kennt das von Youtube, wo manche Videos hierzulande nicht verfügbar sind. Facebook bezieht sich bei solchen Entscheidungen aber nicht auf Recht und Gesetz, sondern auf seine Gemeinschaftsstandards. Darin steht, dass Gewaltdarstellungen nur dann gelöscht werden, „wenn sie zum sadistischen Vergnügen oder zum Verehren und Verherrlichen von Gewalt geteilt werden“.

Gibt es ökonomische Gründe?

Eine gewisse Doppelzüngigkeit lässt sich deutlich beobachten: Einerseits beruft sich Facebook darauf, dass es nicht möglich sei, hochgeladene Videos in Echtzeit zu kontrollieren. Andererseits tut es der Konzern aber doch: Als Jun kürzlich einen Clip von einem Musikfestival posten wollte, erschien noch während des Hochladens der Hinweis, dass dieses Video wegen der Musik im Hintergrund das Urheberrecht verletzen könnte und deshalb nicht hochgeladen werde. „Urheberrechtsverletzungen sind teuer, da ist Facebook hinterher“, sagt Jun. Offenbar ist es möglich, das automatisch zu erkennen und zu stoppen. Gewaltvideos hingehen kosten den Konzern nichts. Auch bei Hassreden und Falschmeldungen wird Facebook wohl auch aus ökonomischen Gründen selten aktiv – schließlich werden entsprechende reißerische Posts häufig geteilt: „Das sind Facebooks aktivste Nutzer, die wollen sie nicht verlieren“, sagt der Rechtsanwalt.

Was ist technisch möglich?

Die automatische Bilderkennung ist noch nicht perfekt, aber offenbar gut genug, um beispielsweise Nacktheit recht zielsicher aufzustöbern. Das tut Facebook bis zum Exzess – und trifft damit bisweilen daneben, wie das Beispiel des „Napalm-Mädchens“ im Herbst zeigte: Auf dem historischen Bild flieht ein nacktes Mädchen im Vietnamkrieg vor einem Napalmangriff. Erst nach Protesten machte Facebook die Löschung rückgängig.

Gewalt ist zwar sicher schwieriger zu erkennen als etwa nackte Brüste, denkbar wäre aber eine Software, die im Verdachtsfall Alarm schlägt und einen Film so lange sperrt, bis ein Mensch den Inhalt geprüft hat. Da solche Maßnahmen Geld kosten und Facebook rechtlich nicht verpflichtet ist, Inhalte vorausschauend zu prüfen, hat der Konzern daran kein Interesse.

Im Prozess wegen des sogenannten Merkel-Selfies, in dem Jun den Flüchtling Anas Modamani vertrat, behauptete Facebook, es sei nicht möglich, die entsprechenden Hetzbilder zu löschen. Die Richter, die immer wieder auf ihre technische Ahnungslosigkeit verwiesen, ließen das dem Konzern durchgehen – obwohl es Unfug ist: Es ist technisch kein Problem, ein bereits bekanntes Bild zu finden und zu löschen. Aber das Bild, auf dem behauptet wird, der Flüchtling habe einen Obdachlosen umgebracht, ist bis heute auf Facebook zu finden.

Politik und Gesellschaft

Wie reagiert die Politik?

Justizminister Heiko Maas hat nun das sogenannte Netzwerkdurchsetzungsgesetz auf den Weg gebracht. Darin geht es im Wesentlichen um Bußgelder: Der Betreiber eines sozialen Netzwerks muss – wenn das Gesetz beschlossen wird – rechtswidrige Inhalte innerhalb einer Frist löschen. Während einige Verbände die Meinungsfreiheit in Gefahr sehen, findet Jun das den richtigen Weg. Auch wegen des sogenannten Vollzugsdefizits – der praktischen Unmöglichkeit, deutsches Recht gegenüber Facebook durchzusetzen. „Medienanstalten haben immer wieder gesagt, dass sie gegen Facebook nicht ankommen, weil es nicht greifbar ist.“ Das neue Gesetz sieht auch eine verpflichtende Adresse im Inland vor.

Wer ist ethisch verantwortlich?

Diese Videos werden nicht von Facebook, sondern von seinen Nutzern hochgeladen. Jeder kann das machen, Facebook schließt zunächst einmal niemanden aus. Und wie es so ist an Orten, an denen sich ein gesellschaftlicher Querschnitt sammelt: Es sind immer auch Kriminelle darunter. Allerdings erreichen solche Videos – ähnlich wie reißerische Falschmeldungen – eine hohe Verbreitung. Es liegt also an jedem Einzelnen, Posts mit Gewalt oder Lügen nicht weiterzuverbreiten.

Eingriff oder Meinungsfreiheit?

Natürlich sollte nichts gezeigt werden dürfen, das eindeutig strafbar ist. Aber es gibt Zwischenformen. Wenn hier ein zu starkes Eingreifen gefordert wird, so die Sorge vieler Netzaktivisten, könnte die Meinungsfreiheit eingeschränkt werden. Facebook-Chef Mark Zuckerberg betont immer wieder, sein soziales Netzwerk sei nur eine Plattform und kein Medium, keine Redaktion und müsse sich von daher auch weder an die ethischen journalistischen Selbstverpflichtungen halten noch unterliege es den rechtlichen Standards eines Mediums.

Allerdings kuratiert Facebook seine Inhalte eben doch. Sie werden nicht in der Reihenfolge des Eingangs in die Newsfeeds der Nutzer gestellt, sondern von Algorithmen bewertet und sortiert. Das kann man durchaus als redaktionelles Eingreifen bewerten, so dass Facebook in Erwägung ziehen muss, dann auch journalistische Verantwortung zu übernehmen.