Das sind Fakten – alternative Fakten.“ Mit diesen Worten untermauerte Kellyanne Conway, die Beraterin des damaligen US-Präsidenten Donald Trump, ihre Behauptung, dass dessen Amtseinführung auf der Mall in Washington 2017 mehr Menschen beiwohnten als acht Jahre zuvor bei US-Präsident Obama. Aus heutiger Sicht ist eine solche Aussage geradezu rührend, weil sie so leicht mit zwei Fotos zu widerlegen ist.
Das sieht heute, knapp sieben Jahre später, schon ganz anders aus. Es ist nicht so, dass nur Maschinen lügen oder manipulieren können. Menschen können das auch, sie haben es sogar erfunden. Aber Maschinen werden – natürlich unter menschlicher Anleitung und Intention – immer besser darin. Und vor allem wird es durch moderne Technik immer einfacher, solche Manipulationen zu erstellen. Noch vor nicht allzu langer Zeit brauchte es gewaltige Tricktechnik, damit Steven Spielbergs E.T. aussah wie ein liebebedürftiger Außerirdischer und nicht wie eine Zeichentrickfigur – und der Hintergrund nicht an frühe Filme mit Heinz Rühmann erinnerte.
Doch inzwischen ist es für alle, die sich mit generativer, also erschaffender Künstlicher Intelligenz (KI) gut auskennen, kein großes Problem mehr, sogenannte Deepfakes in wenigen Minuten in der heimischen Küche zu erstellen. Mit Programmen wie Midjourney oder Dall-E werden dann Bilder erstellt, die den Papst in einer Daunenjacke des Luxuslabels Balenciaga oder Trump bei seiner angeblichen Verhaftung zeigen. Diese im vergangenen Jahr millionenfach geteilten Bilder sind sowohl technisch als auch aus dem Kontext heraus recht schnell als Fälschungen entlarvt. Das Veröffentlichen dieser Bilder verfolgt gewissermaßen einen pädagogischen Zweck, um zu zeigen: Schaut mal, das könnten wir alles machen.
KI als Kampfmittel bei der US-Präsidentschaftswahl
Aber bei Bildern, die den Ex- und möglicherweise künftigen US-Präsidenten Trump in inniger Umarmung mit dem ihm eigentlich verhassten ehemaligen US-Chefimmunologen Anthony Fauci zeigen, ist es schon nicht mehr so eindeutig. Interessant auch der Kontext: Urheber der durch Künstliche Intelligenz generierten Bilder ist das Team des innerparteilichen Trump-Konkurrenten um die Spitzenposition der Republikaner im Präsidentschaftswahlkampf, Ron DeSantis. Erstellt wurden die Bilder natürlich mit der Absicht, Trump zu schaden – ein kleiner Vorgeschmack auf den Wahlkampf in diesem Jahr.
Keine Frage: Wenn alles täuschend echt dargestellt werden kann, ist die Wahrheit bedroht. Und wenn es – siehe Trump und andere Populisten – keine Einigkeit mehr über die Fakten gibt, steht auch das gesellschaftliche Miteinander infrage.
Grundsätzlich kann bereits heute jeder Mensch täuschend echt in jeder Situation dargestellt werden. Anfang Dezember vergangenen Jahres kursierten drei Audios, die alle vermeintliche Entschuldigungen der „Tagesschau“ über angeblich „bewusste Manipulation“ und „Lügen“ in der Berichterstattung enthalten. In allen drei Audiodateien heißt es gegen Ende: „Für all diese einseitige Berichterstattung und bewusste Manipulation, insbesondere für die Denunzierung unserer Mitmenschen, müssen wir uns ausdrücklich im Namen des öffentlich-rechtlichen Rundfunks entschuldigen.“ Das alles war täuschend echt unterlegt mit den Stimmen der Sprecherin Susanne Daubner und des Sprechers Jens Riewa.
Problem für die Demokratie ergibt sich aus drei Faktoren
Es ist nicht so, dass dies nicht schon grundsätzlich seit Jahren möglich wäre. Das Problem für die Demokratie ergibt sich aus der Kombination von drei Faktoren:
Zum einen werden die Fakes immer besser. Das gilt umso mehr für Menschen, die in der Öffentlichkeit stehen. Je mehr Bild- und Sprachproben von der Person vorhanden sind, je mehr Daten die KI also von der entsprechenden Person hat, um zu lernen, umso perfekter kann ein solcher Deepfake sein. Und es wird technisch immer aufwendiger, die Fälschung zu entlarven.
Zum Zweiten sind solche Fakes immer einfacher, gewissermaßen für jedermann herzustellen. Und die eigentliche Sprengkraft rührt genau daher. Das muss dabei nicht immer für alle sichtbar sein. Ein nicht geringer Teil der politischen Kommunikation findet nicht mehr in den klassischen Medien, in Parteitagsreden oder auf Marktplätzen an Wahlständen statt, sondern in Tausenden von Telegram-, Signal- und Whatsapp-Gruppen, in denen jede Verschwörungserzählung auf fruchtbaren Boden fällt. Ein Viertel der Gesamtbevölkerung, so zeigt eine sehr aktuelle und sehr bestürzende Untersuchung des Rheingold-Instituts, hat sich von den etablierten Medien und damit von einer allseits akzeptierten und transparenten Form der politischen Kommunikation abgewandt und informiert sich über alternative Kanäle. Von solchen Kanälen werden immer wieder gezielt Falschinformationen verbreitet, um das Vertrauen in den Rechtsstaat, die Polizei, die politisch Handelnden, die Medien – das ganze Establishment – zu untergraben.
Ein mögliches Beispiel: Vor wenigen Wochen wurde in unserer Zeitung berichtet, dass es zwei Bauarbeitern aus Böblingen durch einen heldenhaften Einsatz gelungen ist, die Entführung eines Jungen durch einen Mann zu verhindern. Dabei hat einer der beiden auch unserer Redaktion gegenüber den Satz gesagt: „Ja, ich war grob zum ihm.“ Und: „Ich hätte ihn zur Not mit der Schaufel gestoppt.“
Verschwörungserzählungen werden glaubhafter
Wenige Tage danach wurde die Falschmeldung verbreitet, dass der Mann, der wohl versucht hatte, den Jungen zu entführen, wieder auf freien Fuß gesetzt worden sei, dafür aber der Bauarbeiter verhaftet worden sei, weil der den mutmaßlichen Straftäter geschlagen habe. Das Narrativ dahinter ist klar und bekannt: Die deutsche Justiz schützt deutsche Bürger nicht mehr, Pädophile können sich ungehemmt Kinder von der Straße holen, und wer dagegen einschreitet, wird verhaftet. Es ist von außen nicht nachzuvollziehen, in wie vielen Chatgruppen diese Geschichte verbreitet wurde. Was aber klar ist: Eine solche Verschwörungserzählung, unterlegt mit den generierten Bildern eines der Bauarbeiter in Handschellen – technisch inzwischen durchaus machbar –, hätte eine ungleich größere Sprengkraft. Und solche Geschichten fallen bei Menschen, die das glauben wollen, auf sehr fruchtbaren Boden.
Zum Dritten kann jeder, der mit einem echten Bild entlarvt wurde, leicht und nicht unglaubwürdig eine vermeintlich KI-Fälschung dafür verantwortlich machen. Russland streitet die Gräueltaten in Butscha ab. Einer der Hamas-Führer hat vor Kurzem die furchtbaren Bilder aus dem Kibbuz Be’eri für gefälscht erklärt. Das erste Opfer des Krieges war seit jeher die Wahrheit. Aber so bedroht war sie noch nie. Und auf einer banaleren Stufe könnte Donald Trump heute lächelnd behaupten, der mitgeschnittene Satz „grab them by the pussy“ sei durch eine KI gefälscht worden.
Was folgt nun aus all diesem? Man muss nun nicht gleich, wie etwa der US-Multiunternehmer Elon Musk das tut, das Ende der Menschheit ausrufen. Denn auch wenn viele nun damit rechnen: Das alles wird nicht über Nacht passieren. Menschen neigen dazu, Auswirkungen technischer Entwicklungen kurzfristig zu überschätzen. Aber sie neigen auch dazu, die langfristigen Konsequenzen zu unterschätzen. Es gilt aber trotzdem, sich zu wappnen.
„Das Generative ist das neue Default“
1. Jeder Medienschaffende, Politikerinnen und Politiker, aber auch jeder Bürger, jeder, der sich irgendwie informiert, muss über kurz oder lang von der Möglichkeit ausgehen, dass ein Bild- oder Tondokument nicht zu 100 Prozent echt ist. Gregor Schmalzried, einer der besten Kenner von KI in Medien, hat kürzlich einen bemerkenswerten Satz gesagt: „Das Generative ist das neue Default.“ Mit anderen Worten: Medienschaffende und Mediennutzer müssen in einer nicht mehr so fernen Zukunft standardmäßig zunächst einmal davon ausgehen, dass ein Dokument durch generative KI erstellt wurde.
2. Daraus ergibt sich, dass sich alle Medien darauf vorbereiten müssen. In großen Nachrichtenorganisationen – ARD, „Spiegel“, dpa – gibt es Faktenchecker; es gibt internationale Organisationen wie Bellingcat, die Fakes weitestgehend aufdecken können – unter anderem durch die Überprüfung von GPS-Daten. Kleinere Organisationen haben aber derzeit Mühe, diese Beiträge zu erkennen. Teilweise müssen sie auf ihre Zulieferer vertrauen, sich bei ihnen erkundigen oder aber selbst nachrecherchieren oder Fotos aus unklarer Quelle einfach nicht veröffentlichen. Die wenigsten Organisationen sind darauf hinreichend vorbereitet.
3. Nicht jedes nicht reale Bild wird gleich in böswilliger Absicht erstellt, manchmal ist es nur der Sachverhalt, der prägnanter herausgearbeitet wird. Das Kind mit dem Sparschwein ist noch süßer, der Eisbär auf der Eisscholle schaut noch trauriger. Ein Medium, das glaubwürdig bleiben will, kann solche Illustrationen nutzen, muss aber ihren Ursprung kenntlich machen.
4. Wer Medien nutzt, muss mehr wissen – mehr über die Umstände, mehr über die Wahrscheinlichkeit, dass Dinge sich so darstellen können, wie sie abgebildet sind. Das erfordert Bildung, vor allem Medienbildung, vor allem bei Heranwachsenden. Hier liegt ohnehin eine gewaltige Herausforderung für die Gesellschaft. Durch KI wird sie noch größer.
5. Wer künftig medieninformiert sein will, muss selbst mit KI arbeiten, um sich auf dem Laufenden zu halten. Allerdings hat sich die Hoffnung, der KI selbst mit Künstlicher Intelligenz auf die Schliche zu kommen, bis jetzt noch nicht erfüllt. Bereits existierende Anti-KI-KI-Programme sind mangels Zuverlässigkeit wieder vom Markt genommen worden.
6. Viele Entwicklungen sind noch nicht im Ansatz abzusehen. Was wird aus den kreativen Berufen? Den Drehbuchautoren in Hollywood wurde jetzt bis auf Weiteres zugesagt, dass sie nicht durch KI ersetzt werden. Aber wie lange? Bleibt das Urheberrecht auf der Strecke? Womit verdienen Medien Geld, wenn die KI, anders als Google heute, keine Links ausspielt, sondern Antworten, die vielen Menschen genügen?
7. Wie üblich ist es so, dass Europa bei Entwicklung und Anwendung der Technik hintendran ist, die EU aber beansprucht, führend in der Regulierung zu sein. Wenn man davon absieht, dass dieser Ansatz auf Dauer nicht erfolgreich sein kann, so muss man in diesem Fall doch festhalten, dass eine Regulierung absolut erforderlich ist. Ein neues Arzneimittel muss aufwendigst getestet werden, bevor es Patienten nutzen dürfen. Ein Auto geht durch Dutzende verschiedene Stufen bei allen nur denkbaren Behörden, bevor es auf die Straße darf. Doch KI-Programme werden unkontrolliert auf die Menschheit losgelassen.
Schon bei der Einführung des Buchdrucks wurde davor gewarnt, dass jetzt Lügen noch viel leichter verbreitet werden können; die Nazis nutzten den Volksempfänger, um ihre Propaganda zu verbreiten. KI kann auch sehr viel Gutes bewirken, aber sie ist eine mächtige Kraft. Wir dürften keine Angst vor dem Werkzeug haben. Aber die Regeln, wie es eingesetzt wird, müssen klar sein.
Vortrag Der Beitrag ist ein Auszug aus einem Vortrag auf dem Mediensymposium der Dualen Hochschule Baden-Württemberg im Dezember 2023 in Stuttgart.