KI-gestützte (Kommunikations-)Wissenschaft braucht einen Kompass

Marlis Prinzing, Hochschule Macromedia
KI durchdringt die gesamte „Wertschöpfungskette“ der Forschung und ist ein Turbo-Beschleuniger wissenschaftlicher Erkenntnisproduktion. KI-Modelle können ein riesiger Wissensspeicher sein, bei der Literatursuche und -verarbeitung unterstützen, blitzschnell immense Datenmengen analysieren und verknüpft zu KI-gestützten Multi-Agenten-Systemen helfen, mehrstufige, komplexe Aufgaben zu erledigen. Und KI-Systeme lassen sich durch bestimmte Methoden (u. a. „Reinforcement Learning from Human Feedback“‚ „Constitutional AI“) auf Werte sowie auf Ziele und Absichten von Menschen (Entwickler:innen; Nutzende etc.) ausrichten (AI-Alignment). Das hilft sicherzustellen, dass sie zuverlässiger das machen, was sie sollen.
KI-Systeme haben aber nie eine Moral, und man kann sie für Fehler nicht zur Verantwortungziehen oder gar bestrafen. Verantwortung können nur Menschen übernehmen. Sie brauchen dafür einen ethischen Kompass. Er hilft auch in stürmischen Zeiten mit vielfältigen Herausforderungen, Kurs auf das Ziel guter wissenschaftlicher Praxis zu halten, und zu ermessen, was geht, was nicht und warum dies so ist. KI-gestützte akademische Forschung, möglicherweise gar ein „AI-Turn“ von Wissenschaft, stellt nicht alle bisherigen ethischen Prinzipien auf den Kopf. Aber einige müssen breiter gefächert und justiert werden durch KI-Kompetenz. Der Einsatz von KI muss gelehrt, gelernt und trainiert werden. Hier folgen sechs Kernpunkte:
1 Sorgfaltspflicht. „Garbage in, garbage out“ – werden KI-Modelle z.B. mit Daten trainiert, in denen sich Vorurteile widerspiegeln, verstärken sich diese Effekte. Sorgfältig vorgehen heißt z. B., Schwächen im Datensatz mittels Algorithmen aufzuspüren und auszugleichen, indem man vor der Eingabe in ein Modell Daten unterrepräsentierter Gruppen hinzufügt oder Nebenbedingungen in den Prozess einbaut. Explainable AI (XAI) ist ein Schlüssel: Sorgfalt bedeutet, nur Ergebnisse zu verwenden, deren Zustandekommen man verstanden hat. Man sollte also keine mittels eines leistungsstarken Deep-Learning-Modell erzielten Befunde verwenden, das der Modell-Entwickler nur als eine Art Blackbox anbietet. Forschende sind professionelle Anwender; sie müssen nicht jedes Detail, aber das Prinzip des methodischen Fundaments eines KI-Modells, also der Architektur, Datensatzkonstruktion und Trainingsmethode, verstehen.
2 Schutz der Persönlichkeit. In öffentlich zugängliche KI-Systeme sollten keine sensiblen personenbezogenen Daten eingegeben werden. Für bestimmte Zwecke sollten datenschutzkonforme Systeme entwickelt/genutzt werden, und man sollte nicht einfach auf die gängigen Marktmodelle vertrauen.
3 Replizierbarkeit als Standard. Bereits unterschiedliche Betriebssysteme können es erschweren, durch Machine Learning produzierte Ergebnisse zu wiederholen, sie sind also systemimmanent nur mit Einschränkung intersubjektiv nachprüfbar. Forschungsethisch bleibt es dennoch geboten, dies zu benennen bzw. Code und Parameter zu exportieren und verwendete KI-Modelle, Algorithmen und Datensätze zu dokumentieren, also Replizierbarkeit als Standard zu bewahren.
4 Kompetenter Einsatz von KI. Verantwortungsbewusst und damit nachhaltig vorgehen heißt auch, Funktionsweisen sowie Vor- und Nachteile von angewendeten KI-Tools und Modellen kennen, mit Risiken umgehen können sowie differenzieren: Für welche Aufgaben ist KI-Assistenz nützlich, welche erfordern menschliche Kreativität und ein menschliches Urteil? Welche Tools verbessern die Arbeitsqualität (z. B. durch die Entlastung von stumpfsinnigen Tätigkeiten und ermüdenden Routineaufgaben)? Lässt sich der ökologische Preis (Energie etc.) rechtfertigen?
5 Verankerung in der Aus- und Weiterbildung. Die mit KI verbundenen Herausforderungen machen es dringend notwendig, wo noch nicht erfolgt, forschungsethische Prinzipien verbindlich und systematisch in der akademischen Ausbildung zu verankern – gerichtet an Lehrende, Forschende und Studierende.
6 Transparenz, Begründung, Mensch als Kontrollinstanz. Die KI-Unterstützung ist im gesamten Prozess – ob bei Datenerhebungen, -analysen, Konzept- oder Textarbeit etc. – offenzulegen: Warum, wie und wofür wurde ein bestimmtes Tool eingesetzt? Es fehlen aber übergeordnete Orientierungslinien, wie dies zu erfolgen hat, und an welchen Stellen der Mensch als Prüf- und Kontrollinstanz, der „Human-inthe loop“, einzuschalten ist.
Es gibt in manchen Institutionen Richtlinien. Doch es bleibt einiges zu tun. Die Verantwortung zu handeln ist gestuft, adressiert also mehrere Ebenen: Die Fachgesellschaften, Hochschulen, Forschenden, Modell-Anbieter. KI mag die (Kommunikations-)Wissenschaft auf den Kopf stellen, muss uns aber nicht kopflos machen. Ein forschungsethischer Kompass, der kontinuierlich trainiert und angewendet wird, ist der Schlüssel für eine aufgeklärte Wissensgesellschaft mit Zukunft.
Beispiele für Regelungen von KI-Nutzung für Forschung und Lehre
Generelle Handlungsempfehlungen
Hochschulforum Digitalisierung: Künstliche Intelligenz: Grundlagen für das Handeln in der Hochschullehre
BMFTR: Handlungsempfehlungen für den Einsatz von generativer KI in der Wissenschaftskommunikation
Regelungen von Universitäten und Hochschulen
HHU Düsseldorf: Leitlinien zur Verwendung generativer Künstlicher Intelligenz in der Lehre
HS Düsseldorf: Übersicht zu ChatGPT im Kontext Hochschullehre
UZH Zürich: Empfehlungen zum Umgang mit generativer Künstlicher Intelligenz
TU Wien: Empfehlung zur guten Praxis im Umgang mit generativer KI
Harvard University: Initial guidelines for the use of Generative AI tools
Regelungen von Förderinstitutionen
DFG: Zum Einfluss generativer Modelle für die Text- und Bilderstellung auf die Wissenschaften und das Förderhandeln
SNF: Wie der SNF mit dem Einsatz von Künstlicher Intelligenz bei Fördergesuchen umgeht
FFG: Position der FFG zur Verwendung generativer AI
EU-Kommission: Living guidelines on the responsible use of generative AI in research
Regelungen von Wissenschaftsverlagen
Springer: Editorial Policies - Artificial Intelligence (AI)
Sage: Artificial intelligence policy
Taylor and Francis: Editorial Policies - Using artificial intelligence (AI) in your research
Sammlungen von KI-Tools KI für wissenschaftliches Arbeiten
U Duisburg-Essen: KI-Tools für Literaturrecherche und wissenschaftliches Arbeiten
U Tübingen: Künstliche Intelligenz für das wissenschaftliche Arbeiten
U Siegen: KI-Tools KI in der Lehre
DGHD & GMW: Didaktische Handreichung zur praktischen Nutzung von KI in der Lehre
TU Hamburg: KI-Tools in Studium und Lehre
HS Bochum: KI in der Lehre Erkennung von KI durch KI
TH Augsburg: KI-Text-Detektoren
TH Mittelhessen: Limitations of AI recognition software

