Technische Verfahren, mit denen digitale Medien wie Bilder oder Videos mit Hilfe von Künstlicher Intelligenz manipuliert werden können, sind inzwischen weit verbreitet. Wir erklären, was Deepfakes sind, wo sie eingesetzt werden und welche Gefahren mit ihnen verbunden sind.

KI-Experten warnen vor erheblichen Defiziten bei heutigen Methoden zur Auszeichnung von Bildern, Videos und Audio-Aufnahmen, die mit Hilfe Künstlicher Intelligenz (KI) erzeugt werden.

 

Für die Nutzer sichtbare Markierungen könnten irreführend und schwer zu entdecken sein und seien zugleich relativ einfach zu entfernen, betont die Internet-Stiftung Mozilla in einem am Montag (26. Februar) veröffentlichten Bericht.

Sind technische Wasserzeichen eine Lösung?

Technische Wasserzeichen, die automatisch in von KI erzeugte Inhalte eingebettet werden, seien zwar die robustere Lösung, heißt es in dem Bericht. Aber auch hier gebe es den Vorbehalt, dass diese Informationen erst von der Software auf den Geräten der Nutzer ausgelesen und für sie dargestellt werden müssen.

Vorschriften zur Auszeichnung von Inhalten liefen oft ins Leere, warnt Mozilla-Forscherin Ramak Molavi Vasse’i. Die sogenannten Deepfakes würden meistens extra dafür erstellt, um Menschen in die Irre zu führen. Wenn die Branche mit der Selbstregulierung nicht vorankomme, müsse es mehr Druck geben, fordert Ramak Molavi Vasse’i.

Wichtige KI-Begriffe: Neuronen, neuronale Netze, Deepfakes

  • Künstliche Intelligenz: Künstliche Intelligenz – auch artifizielle Intelligenz (AI, englisch: Artificial Intelligence) genannt – ist ein Teilgebiet der Informatik, das sich mit der Automatisierung intelligenten Verhaltens und dem maschinellen Lernen befasst. Nach Angaben des Bundesamtes für Sicherheit in der Informationstechnik existieren Verfahren zur Manipulation von Medieninhalten bereits seit langem. Während die Verfahren etwa zur Bildfälschung noch vor wenigen Jahren sehr aufwendig waren, ist dies heute durch Methoden der KI sehr viel effizienter, einfacher und schneller möglich.
Artifizielle Intelligenz: Ein künstliches Auge liegt auf einer Computerplatine.  Foto: Imago/Christian Ohde
  • Künstliche tiefe neuronale Netze: Man spricht in diesem Zusammenhang auch von künstlichen tiefen neuronalen Netzen, umgangssprachlich Deepfakes genannt (ein Kofferwort aus: Deep Learn/Tiefes Lernen und Fake/Fälschung). Dabei werden realistisch wirkende Medieninhalte in Form von Video/ Bild, Audio und Text durch Techniken der künstlichen Intelligenz abgeändert, erzeugt oder verfälscht.
Künstlerische Darstellung von künstlichen tiefen neuronalen Netzen. Foto: Imago/Alexander Limbach
  • Neuronen: Künstliche neuronale Netze (KNN, englisch: Artificial Neural Network/ANN) haben ihr biologisches Vorbild in den Nervenzellen des Gehirns - den Neuronen. Im menschlichen Gehirn gibt es schätzungsweise 86 Milliarden Neuronen. Ihr Aufgabe ist es, Reize aus der Umwelt oder aus dem Inneren des Körpers an das Gehirn zu melden und von diesem Befehle entgegenzunehmen.
3D-Darstellung, wie die Kommunikation innerhalb der Nervenzellen im Gehirn funktioniert. Foto: Imago/Panthermedia
  • Neuroinformatik: Netze aus künstlichen Neuronen werden insbesondere von der Neuroinformatik untersucht, einem zentralen Zweig zur Erforschung Künstlicher Intelligenz. Künstlich neuronale Netze sind in der Lage, große Mengen an sogenannten unstrukturierten Daten auszuwerten und Muster in ihnen zu finden. Zu unstrukturierten Daten gehören Bilder, Videos oder Töne, also alle jene Flut an Daten, die im Alltag in großer Zahl produziert werden.

KI: Böswilliger Einsatz nicht ausgeschlossen

Generell sei es ein Problem, dass gerade eine Technologie in Umlauf gebracht werde, bei der Maßnahmen gegen einen böswilligen Einsatz nicht von Anfang an durchdacht und eingebaut würden, warnt Ramak Molavi Vasse’i. Außerdem gebe es noch einen Wildwuchs aus mehreren Verfahren statt einheitlicher Standards.

Fakt ist: Mit KI-Software kann man immer realistischere Fotos aus Text-Vorgaben erzeugen. Inzwischen werden auf diese Weise auch immer häufiger Videos generiert. So stellte der ChatGPT-Entwickler OpenAI jüngst seine Video-Software Sora vor. Die sichtbare Markierung, die auf eine KI-Herkunft hinweise, sei bei Sora klein und oft schwer zu sehen, kritisiert die Mozilla-Expertin.

Deepfakes: Gefahr von Wahlmanipulationen und Audio-Fakes

Insbesondere in diesem Jahr mit der der Europawahl am 9. Juni und der US-Präsidentenwahl am 5. November gibt es große Sorgen, dass mithilfe von KI erstellte Fälschungen verwendet werden könnten, um hren Ausgang zu beeinflussen. In den USA gab es bereits kurz vor der Vorwahl der Demokratischen Partei im Bundesstaat New Hampshire automatisierte Anrufe, bei denen mit der täuschend echt wirkenden Stimme von Präsident Joe Biden dazu aufgerufen wurde, der Abstimmung fernzubleiben.

Solche Audio-Fakes gelten allein schon deshalb als großes Problem, weil es weniger Möglichkeiten gibt, sie anhand von Fehlern oder Kennzeichen zu erkennen. Es gab bereits Fälle, in denen solche Aufnahmen für den sogenannten Enkel-Trick angewendet wurden, bei dem Kriminelle versuchen, Geld im Namen von Verwandten zu erbeuten.