Video-Manipulation im Internet Deepfakes – Fake News auf dem nächsten Level?

Von  

Medienwissenschaftler warnen vor sogenannten Deepfakes: Videomanipulationen werden immer einfacher. Es gibt Befürchtungen, dass bald jedermann per App die nächste Generation von Fake News ins Netz stellen kann. Welche Beweiskraft haben dann noch Videos?

Im Internet kursieren Videos, in die das Gesicht von Scarlett Johansson nachträglich montiert worden ist – per Software. Foto: AP
Im Internet kursieren Videos, in die das Gesicht von Scarlett Johansson nachträglich montiert worden ist – per Software. Foto: AP

Berlin - Man stelle sich vor: Jemand sucht im Internet nach irgendwelchen Pornos und stößt dann auf sich selbst. Dabei hat dieser jemand nie in einem Pornofilm mitgespielt. Was ziemlich verrückt klingt, ist bereits Wirklichkeit geworden: Die Rede ist von sogenannten Deepfakes – Videofälschungen, die Gesichter von Personen in Szenen projizieren, in denen sie nie gewesen sind. Das Programm „FakeApp“ macht den Gesichtertausch auch für Amateure im Umgang mit Tricktechnik möglich und hat auf der Plattform Reddit eine Kontroverse entfacht.

So funktionieren Deepfakes

Doch gefälschte Rache-Pornos sind nur die Spitze des Eisbergs, sagen Medienwissenschaftler wie Bernhard Pörksen von der Uni Tübingen: „Deepfakes illustrieren, dass die Unterscheidung zwischen authentischen und gefälschten Dokumenten im digitalen Zeitalter erodiert; es ist ein Angriff auf die Autorität des vermeintlich dokumentarischen Films.“ Was ist dran an solchen Warnungen?

Anders als bei einer der Bildbearbeitung, für die rudimentäre Photoshop-Kenntnisse und Retusche ausreichen, um eine Fälschung in die Welt zu setzen, kommt bei den Deepfakes künstliche Intelligenz (KI) zum Einsatz. Von Hand wäre es auch sehr aufwendig, Bild für Bild das Gesicht der einen Person über das Gesicht einer anderen Person zu legen. Die Technologie dahinter heißt Face-Swap.

Video-Manipulation für jedermann

Deepfakes sind eine recht neue Erscheinung. Ein anonymer Nutzer stellte erstmals im Herbst 2017 Pornofilme auf der Plattform Reddit online, die augenscheinlich Schauspielerinnen und Sängerinnen wie Gal Gadot, Emma Watson, Katy Perry, Taylor Swift oder Scarlett Johansson beim Sex zeigten. Der Schwindel flog auf, das entsprechende Reddit-Forum wurde geschlossen.

Bereits Ende Januar 2018 erreichten Deepfakes eine neue Eskalationsstufe. Die Verfügbarkeit des Programms „FakeApp“ machte den Schindluder für jeden möglich, dessen Computer über genug Rechenleistung verfügte, wie das Verbraucherportal Chip schreibt. Einzige weitere Bedingung: Viele Fotos vom Gesicht der Person zu besitzen, die dargestellt werden soll, damit die künstliche Intelligenz die Mimik des Gesichts im Originalfilm nachahmen kann.

Wie weit ist die Technik ausgereift?

Noch sind die KI-erstellten Deepfakes bei genauerem Hingucken durchaus zu erkennen. Die aufgesetzten Gesichter wirken ein bisschen wie Videospielanimationen, häufig blitzen Darstellungsfehler durch. Wer sich selbst ein Bild machen will – hier hat ein Deepfake-Software-Nutzer Angela Merkels Antlitz durch Donald Trumps Konterfei ersetzt:

Die Rechtslage ist unübersichtlich

Wie so häufig bei neuen Technologien, hinkt das Recht den neuen Problemen, die sie mit sich bringen, hinterher. Die Rechtsberatungsseite eRecht24 nennt als mögliche Formen der Rechtsverletzung durch manipulierte Videos zwar das Recht am eigenen Bild, das Persönlichkeitsrecht oder das Urheberrecht. Betroffene können demnach mithilfe des Telemediengesetzes und des umstrittenen Netzdurchsetzungsgesetzes durchsetzen, dass die Betreiber der Seiten, auf denen die Videos auftauchen, die Werke löschen müssen. Zivilrechtliche Ansprüche geltend zu machen, dürfte sich aber schwieriger gestalten, da die Produzenten von Deepfakes oft durch die Anonymität des Internets geschützt sind.

Diese Gefahren gehen von Deepfakes aus

Der Missbrauch der Technologie, unliebsame Personen in peinliche Situationen zu bringen, ist nicht die einzige Gefahr, die laut Medienwissenschaftlern von gefälschten Videos ausgeht. Besonders Fake News könnten könnten damit in neue Dimensionen vorstoßen, sagt Bernhard Pörksen von der Uni Tübingen. Die Botschaft laute: „Man kann seinen Augen nicht mehr trauen.“

Auch der amerikanische Wissenschaftler Ian Goodfellow, KI-Experte bei Google, warnte in einer Fachpublikation des Massachusetts Institute of Technology (MIT): „Es ist ein historischer Glücksfall, dass wir uns bisher auf Videos als Beweis für Tatsachen verlassen konnten.“

Deepfakes und der Turing-Test

„Falschmeldungen zu produzieren und zu verbreiten ist heute leichter denn je“, schreibt Bernhard Pörksen in seinem aktuellen Essay „Die große Gereiztheit – Wege aus der kollektiven Erregung“. Pörksen vergleicht dort die gesamte digitale Öffentlichkeit mit dem Turing-Test – den ersten halbwegs erfolgreichen Versuchen, in denen Chatbots ihrem Gegenüber vorgaukelten, menschlich zu sein.

In sozialen Netzwerken sei nicht mehr zu unterscheiden, ob Meldungen, Diskussionen, Bildern Tatsachen oder Erfundenes zugrunde liege. Sprich: Die Kommunikation in der Gruppe wird von Faktoren gesteuert, deren Ursprünge sich nicht mehr einfach überprüfen lassen. Dasselbe Schicksal blühe nun auch Videos, die zumindest als etwas verlässlichere Quelle galten.

Wie die Gesellschaft damit umgehen könnte

Wenn der Google-Mitarbeiter Ian Goodfellow Recht behält und der Videobeweis der Vergangenheit angehören sollte, könnte beim Konsum von Videos in etwa dasselbe gelten, was heute schon für den Nachrichtenkonsum gilt: Ohne die Überprüfung der Quelle läuft der Medienkonsument Gefahr, Falschmeldungen aufzusitzen. Für seriöse Medien ein weiterer Anreiz, das Vertrauen vieler Leser mit hoher Qualität zurückzuerobern.