Kommt die „Organisationsintelligenz“? Warum sich mit KI alle Organisationen ändern werden – auch die der Kommunikations- und Medienwissenschaft

Aviso2/25_Hepp

Andreas Hepp (Universität Bremen)

Für 2027 wurde die „Gefahr einer Übernahme durch KI“ (https://ai-2027.com) beschworen. Diese Prognose stammt aus dem Umfeld des Effective Altruism, der Allgemeine Künstliche Intelligenz als das größte Risiko der Menschheit sieht und die Entwicklung von Unternehmen wie OpenAI oder Anthropic beeinflusst. 2027 wird zwar nicht diese Schallmauer durchbrochen, wir werden aber tief in einer Transformation stecken – der größten Veränderung unserer Medienumgebung seit dem Web 2.0. 

Das Organisieren von Wissenschaft betrifft dies auf zwei Ebenen. 

Auf individueller Ebene ist die Unterstützung bei Management- und Begutachtungsaufgaben bereits heute möglich und wird 2027 der Normalfall sein. KI-Assistenten sind dann in alle Standardanwendungen implementiert: Finanzkalkulation, Berichtserstellung oder Mailverkehr werden unterstützt. Interessierte Kolleg:innen werden Systeme wie Cluely installiert haben, die jegliche Kommunikation begleiten, Protokolle und ToDo-Listen erstellen, aber auch pro-aktiv auf Zusammenhänge hinweisen. 

Auf organisationeller Ebene werden wir 2027 mitten in einer Aushandlung stecken, welche Automatisierung wir wollen. Es wird viele KI-Kommissionen geben, Positionspapiere von Personalräten und Studierendengruppen. Manches ist gelöst: Studienberatung mittels ChatBot ist möglich, weil die Systeme nun rechtssichere Auskunft geben. Richtig implementiert kann KI die Raum- und Studiengangsplanung sowie Personalangelegenheiten optimieren. 

Strittiger wird die Begutachtung von Studienleistungen, Aufsätzen und Anträgen sein. Kommissionen, Zeitschriftenbeiräte und ein weiterer DFG-Ausschuss beraten dies. Der typische Kompromiss ist, die Letztentscheidung beim Menschen zu belassen. Offensichtlich wird aber auch, dass die Daten über Wissenschaftler: innen feinkörniger werden – zu sehen am dann aktuellen Update von GoogleScholar. Und einzelne werden hoffen, durch KI-Systeme bislang „versteckte“ Leistungen wie organisationelle Care-Arbeit oder Teamwork besser in Evaluationen einbeziehen können. 

Der größte Streit wird jedoch um die „Organisationsintelligenz“ entbrennen: Es sind Systeme verfügbar, die die gesamte Kommunikation einer Organisation monitoren. Auf dieser Basis übernehmen sie nicht nur Protokollierung und ähnliche Aufgaben, sondern vernetzen Personen, sobald neue Ideen entstehen, oder schlagen Prozessoptimierungen vor. Einzelne Kolleg:innen sehen darin Potenziale für Innovationen, andere die Gefahr der Überwachung – und einige fühlen sich von den Zukunftsvisionen des Effective Altruism eingeholt und sehen in einer solchen „kleinen“ Superintelligenz einer Organisation das „größtmögliche“ Risiko für die Wissenschaft. Drei Konsequenzen sollten wir aus diesem Szenario ziehen: 

1. Wenn „KI-unterstützt“ der individuelle Normalfall ist, zählt nicht nur Weiterbildung, sondern eine reflexive Auseinandersetzung damit, wie sich unsere eigenen Organisationspraktiken verändern. 

2. Was angemessene Gestaltung solcher Systeme auf organisationeller Ebene heißt, sollten wir bereits jetzt nicht nur klären. Vielmehr sollten wir die KI-Systeme, die wir wollen, selbst entwickeln. Andernfalls bleibt einmal mehr nur die Übernahme von Systemen, die nach anderen Wertmaßstäben entwickelt wurden. 

3. Wir sollten die Möglichkeit einer „Organisationsintelligenz“ ernst nehmen. Aus rechtlichen Gründen wird diese wohl zuerst bei US-Unternehmen erprobt. Wir sollten aber bereits jetzt eine differenzierte Haltung dazu finden, wenn wir nicht von solchen potenziellen Zukünften überholt werden wollen. Das Imaginieren einer eigenen KI-Zukunft der Wissenschaft kann dabei helfen!