Derzeit kursiert auf X ein altes Video, das zwei Personen beim Sex zeigt und – so die Behauptung – in einem Stuttgarter Polizeirevier entstanden sei. Das stimmt nicht. Auch andere Fakeaufnahmen werden im Netz verbreitet.

Digital Desk: Lena Hummel (len)

Auf X, ehemals Twitter, wurde jüngst wieder ein Video geteilt, das ein Paar beim Sex vermeintlich in einem Stuttgarter Polizeirevier zeigt. Tatsächlich ist auf der Aufnahme zu sehen, wie sich zwei Menschen hinter einem Fenster im zweiten Stock eines Gebäudes in der Wolframstraße in Stuttgart vergnügen. Und tatsächlich befindet sich schräg unten im Erdgeschoss das Polizeirevier 2.

 

Doch das Video ist weder neu, noch gehört das Zimmer, in das hineingefilmt wurde, zum Revier. Im Januar 2022 wurde die Aufzeichnung über den Messengerdienst Whatsapp zigfach geteilt. Bereits damals stellten Zuschauer die auf den ersten Blick nahe liegende Vermutung an, dass auf dem Polizeirevier ein – nun ja, besonders gutes Arbeitsklima herrscht.

Polizei kommentiert Post

Zum Arbeitsklima und den zwischenmenschlichen Beziehungen der Beamten des zweiten Reviers hat sich die Polizei damals zwar nicht geäußert. Wohl aber zu den Räumlichkeiten. Und das tat sie jetzt wieder: „Bei dem Video wurde von außen in eine Privatwohnung gefilmt, die sich in einem an das Polizeirevier angrenzenden Gebäudeteil befindet. Die Privatwohnung hat keinen Zugang zum Polizeirevier,“, kommentierte die Polizei Stuttgart unter dem neuerlich veröffentlichten Video. Und mehr noch: „Das Filmen wie auch das Verbreiten solcher Videos ist strafbar.“

Videos und Bilder werden im Netz immer wieder in einem falschen Zusammenhang gesetzt. So kursieren etwa manipulierte Aufnahmen zum Ukraine-Krieg und zum Krieg im Nahen Osten.

Was sind Deepfakes?

Zuletzt sorgten gefälschte, KI-generierte Audiodateien der Tagesschau für Aufsehen, die auch auf einer Demonstration von Coronagegnern verbreitet wurden. „Die falschen Audios wecken den Eindruck, die Tagesschau entschuldige sich für angebliche Lügen in der Berichterstattung“, hieß es bei der Tagesschau selbst.

Wenn täuschend echte Fälschungen mithilfe künstlicher Intelligenz (KI) erstellt werden und sich bei normalem Hinsehen oder Hören kaum noch von echten Videos oder Stimmaufnahmen unterscheiden lassen, spricht man auch von Deepfakes, weil die Verfahren zu ihrer Erstellung auf tiefen neuronalen Netzen (deep neural networks) basieren.

Von AfD-Anhänger gepostet

Aber wie schafft man es, Deepfakes nicht auf den Leim zu gehen? Schon allein das Wissen um ihre Existenz und die Möglichkeiten von KI hilft dabei, nicht mehr per se auf die Echtheit jeglicher Videos oder Audio-Aufzeichnungen zu vertrauen. Stattdessen gilt es, immer auch Aussagen und Plausibilität kritisch zu hinterfragen.

Aber auch technisch kann es durchaus Hinweise geben, die Fälschungen entlarven können. Dazu zählen dem Bundesamt für Sicherheit in der Informationstechnik (BSI) zufolge etwa Artefakte bei Gesichtsübergängen, verwaschene Konturen, begrenzte Mimik oder unstimmige Belichtung bei Videos. Metallischer oder monotoner Klang, falsche Aussprache oder unnatürliche Sprechweise sowie unnatürliche Geräusche oder Verzögerungen sind typische Fehler bei Stimmfälschungen.

Und was ist mit dem Sex-Tape, das zwar echt ist, aber nicht bei der Stuttgarter Polizei entstanden ist? Auch ein Blick auf den Urheber oder den Verbreiter der Inhalte lohnt sich immer. In aktuell vorliegendem Fall ist das ein Anhänger der AfD, einer Partei, die im Südwesten vom Verfassungsschutz beobachtet wird.