KI-generierte Bilder: Fluch und Segen für die Governance schädigender visueller Inhalte
Franziska Oehmer-Pedrazzi (FH Graubünden & MILEVA INSTITUT für Digitales und Gesellschaft)
„Ein Bild sagt mehr als tausend Worte“ – auch wenn dieses Zitat zur Beschreibung der Wirkmächtigkeit von Bildern bereits abgenutzt ist, ist die Kernaussage aktueller denn je: Bilder fesseln, bleiben im Gedächtnis und wirken authentischer – besonders in einer multimedial geprägten Zeit. Im Wissen um ihre Wirkmacht wurden Bilder auch schon immer manipuliert – war es, um unliebsam gewordene politische Weggefährt:innen aus Fotos und damit aus dem kollektiven Gedächtnis („damnatio memoriae“) zu entfernen, um ein Ereignis durch eine hinzugefügte blutrote Fläche grausamer erscheinen zu lassen oder um durch die Auswahl des Bildausschnitts eine verzerrte Interpretation nahe zu legen. Die Motive sind häufig politisch-ideologischer oder ökonomischer Natur. Über Bilder werden Desinformation und Hass vermittelt.
Mit der Ausbildung demokratischer Strukturen wuchs die Notwendigkeit, manipulierte Bilder zu regulieren, um die Meinungsbildung nicht zu verzerren. Zu Zeiten als publizistische Medien die Öffentlichkeit herstellten, waren dies journalistische Selbstverpflichtungen: Diese fordern Journalist:innen auf, Sorgfalt bei der Bildauswahl zu wahren, Bilder nicht verfälschend zu bearbeiten oder zu beschriften und Änderungen kenntlich zu machen.
In einem gewandelten Mediensystem und mit dem Aufkommen generativer KI haben sich die Risiken zugespitzt: Auch Laien ist es möglich, Bilder und Videos zu beliebigen Sujets in Sekundenschnelle in akzeptabler Qualität zu erstellen oder zu bearbeiten – und auch direkt über soziale Netzwerke zu verbreiten. Während es vor einiger Zeit noch eines:er Grafiker:in und einer teuren Bildbearbeitungssoftware bedurfte, kann jetzt jede:r einem Mitglied der royalen Familie ein Baby in den Arm legen oder die Hautfarbe der Person auf dem Fahndungsfoto verändern.
Journalistische Berufsverbände haben dieser Entwicklung Rechnung getragen und eine KI- Kennzeichnungspflicht beschlossen. Darüber hinaus können alle Bilder auf Verstöße gegen das Persönlichkeits- und Strafrecht (Diskriminierung, Volksverhetzung, …) geprüft werden. Oft bleiben selbst sanktionierbare Bilder ungeahndet, da ihre Prüfung umfangreiches Kontextwissen erfordert. Das ist mit nur wenigen – und immer weniger werdenden – Content-Moderator:innen auf den Plattformen manuell nicht zu leisten. Automatisierte Verfahren stoßen bei der multimodalen Analyse ebenfalls (noch) an Grenzen, müssen doch dabei Text und Bild in Kombination analysiert werden. Besonderes Gewicht kommt bei der Bekämpfung von irreführenden Inhalten – auch aufgrund fragwürdiger Eigentümerentscheide – den Nutzenden der sozialen Netzwerke zu. Sie sollen selbst durch Meldeverfahren und Community Notes einen Beitrag für einen gesunden Onlineraum leisten. Doch auch Nutzenden mangelt es an Medienkompetenz und Zeit.
Was nun? Müssen wir uns damit abfinden, dass im öffentlichen Diskurs viele irreführende KI-Bilder kursieren? Anlass zur Hoffnung bietet die generative KI selbst: Erstens können sich Plattformen oder befähigte Organisationen ihre Lern- und Leistungsfähigkeit verstärkt auch für die (automatisierte) Identifikation von visuellen Mustern von Hass und Desinformation zu Nutze machen. Zweitens können Nutzende auch selbst KIs nutzen, um mögliche Manipulationen in Bildern einschätzen zu lassen. Drittens lassen sich mithilfe von KI nicht nur irreführende Bilder produzieren, sondern auch visuelle Kontrapunkte beispielsweise als Counter-Hassbild erstellen. Die Bilderserie oben auf dieser Seite zeigt, wie dies beispielsweise aussehen kann.
In der Verantwortung sind hierfür nicht nur die großen Anbieter generativer KI, die Plattformbetreiber oder die Medienpolitik. Auch wir als Kommunikationswissenschaftler:innen sind gefragt. Unsere Aufgabe besteht darin, geprüfte und reliable Datensets für das KI-Training zur Verfügung zu stellen, Grundlagenwissen zur Vermittlung von Medienkompetenz zu generieren und den Prozess kritisch zu begleiten und evaluieren.