When Seeing is Deceiving: Wie synthetische Bilder den Journalismus und das Publikum herausfordern
Stephanie Geise (Universität Bremen)
Bildgenerierende KI ermöglicht die schnelle und realitätsgetreue Erstellung synthetischer Bilder, die fiktive Inhalte als authentisch erscheinen lassen. Dass Bilder ein besonderes Potenzial für Manipulation und Täuschung haben, ist nicht neu. Der vermeintliche „Wahrheitsanspruch“ von Bildern wurde schon seit der Erfindung der Fotografie diskutiert. Mit KI erhält die Diskussion um den Wirklichkeitsanspruch und das Authentizitätspotenzial von Bildern aber eine neue Brisanz und Dynamik. Denn während es in der Vergangenheit besonderer technischer Fähigkeiten erforderte, authentisch-wirkende Fälschungen zu erzeugen, können auch Laien mit KI über einfache Textbeschreibungen oder Bild-Vorgaben überzeugende Bilder generieren. Bildmanipulationen sind dadurch schneller, einfacher und massenhaft produzierbar. Schon heute werden KI-generierte Bilder in vielfältigen journalistischen und politischen Kontexten eingesetzt – und zwar meist ohne, dass die generative Genese den Nutzer: innen offensichtlich oder gar deklariert wird. Bedeutet dies das „Ende der Wahrheit“, wie Der Spiegel im Juli 2023 zu den Herausforderungen generativer Bildlichkeit titelte?
Klar ist für mich, dass die zunehmende Integration KI-generierter Bilder in den Journalismus eine fundamentale Herausforderung für die etablierten Sehgewohnheiten und Rezeptionsroutinen des Publikums darstellt. Zwar waren auch journalistische Fotografien nie wirklich „objektiv“ – sie konnten inszeniert, bearbeitet oder dekontextualisiert werden. Dennoch galten v. a. Fotografien lange als „visuelle Beweise“, wurden meist als objektive Annäherung einer zu Grunde liegenden Realität akzeptiert. Dieser „Augenzeugenschaftseffekt“ basierte nicht zuletzt auf der Annahme, dass Fotografien eine vielleicht speziell gerahmte, aber doch reale Szene einfangen. KI-generierte Bilder untergraben diesen Konsens. Die Gefahr ist, dass sich das Publikum künftig bei jedem Bild fragen muss: Ist das echt oder KI-generiert? Diese Unsicherheit schwächt die Glaubwürdigkeit des Bildes als journalistische Quelle und erschwert die journalistische Informationsvermittlung, auf die demokratische Ordnungen angewiesen sind. Ich frage mich, welche mittel- und langfristigen Folgen das haben wird: Untergraben synthetische Bilder das Vertrauen in visuelle Berichterstattung im Allgemeinen und den Fotojournalismus im Speziellen?
Sorgen machen mir auch die potenziellen politischen Folgen: Wenn synthetische Fotografien zunehmend in den Journalismus und den gesellschaftlichen Diskurs einsickern, wird Desinformation erleichtert. Autoritäre Regime und politische Akteure können gezielt KI-Bilder einsetzen, um Narrative zu manipulieren und Deutungshoheiten zu gewinnen. Dies birgt die Gefahr verstärkter Polarisierung und Radikalisierung – insbesondere in Kriegs- und Krisensituationen, in denen visuelle Berichterstattung eine zentrale Rolle spielt. Aktuell zeigt sich dies in der Kriegsberichterstattung zum Russland-Ukraine-Konflikt, wo gefälschte Bilder gezielt zur Stimmungsmache genutzt werden. Wenn journalistische Fotodokumente nicht mehr als Beweismittel anerkannt werden, verkommt jegliche Evidenz zur Verhandlungsmasse: Wer keine Beweise mehr akzeptiert, kann jede Wahrheit bestreiten – eine Entwicklung, die den politischen Diskurs vergiften kann.
Die Antwort auf diese Herausforderung darf kein blinder Technikpessimismus sein. Vielmehr müssen wir aktiv gestalten, wie KI-Bilder in den Medien genutzt werden. Ich plädiere daher für mehr Forschung zur Produktion, Rezeption und Wirkung KI-generierter Bilder – auch in dem Bewusstsein, dass Bilder in der kommunikationswissenschaftlichen Forschung trotz ihrer enormen Bedeutung für Journalismus, politische Kommunikation und gesellschaftliche Diskurse zu lange vernachlässigt wurden. Doch angesichts der neuen technologischen Möglichkeiten können wir uns diesen blinden Fleck nicht länger leisten. Wir brauchen mehr empirisch fundierte Argumente, um eine strikte Regulierung und transparente Kennzeichnung synthetischer Bilder zu fordern – und wir müssen diese Forderungen offensiver artikulieren. Wir sollten auch den Dialog mit Medienunternehmen suchen, sie dazu ermuntern, sich zu verpflichten, KI-generierte Inhalte explizit als solche auszuweisen, dabei auch aktiv Standards in Punkto Selbstverpflichtung zu Transparenz und journalistischer Integrität zu setzen. Gleichzeitig muss sich der Journalismus selbstkritisch fragen, wie er Glaubwürdigkeit neu definieren kann. Zudem braucht es technologische Wasserzeichen oder Standards zur Erkennbarkeit synthetischer Bilder. Und schließlich müssen wir mit unserer Arbeit die Grundlagen dazu liefern, dass das Publikum seine Medienkompetenz weiterentwickeln kann. Wissenschaft und Journalismus sollten verstärkt über manipulative Techniken aufklären und das Bewusstsein für KI-generierte Bilder schärfen. Nur so kann verhindert werden, dass die Gesellschaft in eine allumfassende Skepsis gegenüber journalistischen Bildmedien verfällt.
Diese Herausforderungen halte ich für gewaltig. Doch ich befürchte, wenn wir das Vertrauen in visuelle Informationen verlieren, steht nicht nur der Journalismus, sondern unsere demokratische Informationskultur auf dem Spiel. Wie wir mit KI-generierten Bildern umgehen, wird daher mitentscheiden, wie sich Journalismus und gesellschaftlicher Diskurs weiterentwickeln.