Ende der gemeinsamen Vergangenheit

Godulla_AVISO_01/2025

Alexander Godulla, Universität Leipzig

„Die Männer, die zum Mond geflogen sind, um ihn in Frieden zu erforschen, werden auf dem Mond bleiben, um in Frieden zu ruhen.“ Sichtlich getroffen berichtet US-Präsident Richard Nixon seiner trauernden Nation vom Tod der Astronauten Neil Armstrong und Buzz Aldrin. Am 20. Juli 1969 ist ihre Landefähre Eagle auf dem Mond havariert. Nixons Stimme bebt, seine Hände suchen Halt an den Seiten des Manuskripts. Während die Worte damals tatsächlich zu Papier gebracht worden waren, ist das Video natürlich nicht echt, die Rede glücklicherweise nie gehalten worden. Ein Team des MIT hat sie 2020 zum Leben erweckt, um auf die Gefahren von Deepfakes hinzuweisen. Sie trainierten eine künstliche Intelligenz mit Videos von Nixon, um so der Welt zu zeigen: Das Zeitalter des authentischen Bilds ist endgültig vorüber – glauben könnt ihr längst nichts mehr. 

Als wir ein Jahr später an der Universität Leipzig anfangen zu Deepfakes zu forschen, gilt das Thema noch immer als Kuriosität. Deepfakes, das sind in der breiten Wahrnehmung meist krude Faceswap-Videos oder schlicht Pornos. Beides interessiert uns nicht. Wir wollen stattdessen herausfinden, was Menschen in Deutschland über Deepfakes wissen (sehr wenig), ob sie sich für die Gefahren der Technologie gerüstet sehen (überhaupt nicht) und ob ihr generelles Medienvertrauen durch das Aufkommen von Deepfakes sinkt (eindeutig ja). Derweil schlägt generative künstliche Intelligenz im öffentlichen Diskurs ein wie eine digitale Bombe. Plötzlich nimmt die breite Öffentlichkeit die Existenz von KI wahr, obwohl schon seit den 1950er-Jahren daran geforscht wird. Durch die Macht der Exponentialität gewinnen das Thema und mit ihm der Diskurs um Deepfakes rasant an Fahrt. Es folgen viele Interviews und Vorträge zu dem Thema, aber auch die Erkenntnis, dass in der Regel nicht die richtigen Fragen gestellt werden. 

Die Frage aus dem Journalismus lautet fast immer: Wie wird die Technologie diese oder jene aktuelle Wahl beeinflussen? Die These dahinter: Deepfakes können die Öffentlichkeit derart in die Irre führen, dass sie mehr oder weniger hilflos den Desinformations-Trollen in den Abgrund folgt. Was eigentlich dahinter steckt, ist die Wiederkehr des vergleichsweise primitiven Stimulus-Response- Modells. Im Prinzip sagt es: Wenn ich diesen Knopf hier drücke, geschieht zuverlässig das. Desinformation rein, Wahldebakel raus. Was dabei übersehen wird: Zweifellos werden Deepfakes auch in demokratieschädigender Weise genutzt. Aber die Qualität ist hier offensichtlich überhaupt nicht entscheidend. Schließlich teilen Menschen auch begeistert Cheap Fakes, also technisch so miserable und „billige“ Deepfakes, dass wirklich niemand auf sie hereinfallen muss. Wichtig ist dabei nämlich nicht die technische Qualität, sondern vielmehr die fragwürdige Chance, die wie auch immer geartete andere Seite im Diskurs herabzuwürdigen. 

Wer sich in den finstersten Ecken und Kreisen des digitalen Raums über Politik informiert, ist dort wohl kaum auf der Suche nach qualitativ hochwertigen und ausgewogenen Informationen. Was hier geschieht, hat nichts mit Diskurs im normativen Sinn zu tun. Erheblich besorgniserregender sind jene Deepfakes, die langfristig in die vermeintlich soliden Speicher und bürgerlichen Räume der Bild- und Videoplattformen eindringen und dort auch bleiben. Bald wird es nicht nur ein gefälschtes Dokument wie die Nixon-Rede geben, sondern Millionen davon. Das ist die zynische Pointe des Visual Turns: Niemand liest, alle sehen zu – und was einmal in den Archiven digitaler Plattformen gespeichert ist, hat hohe Chancen, dort zu bleiben. Technisch gesehen können wir alle schon jetzt jede erdenkliche Verschwörungserzählung durch passende Bilder in hoher Qualität unterstützen. Das Fenster für die Unterscheidung zwischen Fiktion und Wirklichkeit wird zunehmend schmaler – und mit ihm die Grundlage für einen gemeinsamen, verlässlichen Referenzrahmen gesellschaftlicher Wahrheiten.