Die ökologische Dimension wird ­übersehen, KI wird knapp werden

 




Interview mit Dirk Siepmann, Universität Osnabrück, Professur für Fachdidaktik des Englischen

Wie verändern sich Schreibstrategien durch künstliches Generieren von Texten?
Da Schreibstrategien ein hohes Maß an Individualität beinhalten, lässt sich diese Frage natürlich nicht allgemeingültig beantworten. Einzelpersonen werden in unterschiedlichem hohen Maße KI in ihren Schreibprozessen einsetzen. Wenn man die Frage normativ angeht, so wäre zu hoffen, dass schon in der Schule davor gewarnt werden sollte, KI zur Ideengenerierung einzusetzen, da sonst die Gefahr bestünde, dass elementare Denkprozesse und die „allmähliche Verfertigung der Gedanken“ (Kleist) beim Schreiben nicht mehr erlernt werden.

Bei der wissenschaftlichen Arbeit kann die KI viele Routineprozesse erleichtern, z.B. die Bereitstellung von Formulierungshilfen oder Revisionen, die über das hinausgehen, was Wörterbücher bieten können, die automatisierte Beschreibung einer Graphik oder die Kürzung eines zuvor selbstverfassten Textes. Der Vorteil besteht hier eindeutig in der höheren Schreibgeschwindigkeit: häufig wird es genügen, einen Text „ins Unreine“ zu formulieren, um ihn dann von einem Large Language Model, einem LLM, in einen formelleren Stil „übersetzen“ zu lassen. Die Übersetzungsleistungen der LLMs in die Zielsprache Englisch sind außerdem für alles Nicht-Terminologische und Nicht-Kreative so herausragend, dass ein Text auch zunächst auf Deutsch formuliert und dann übersetzt werden kann oder ein Code-Switching während des Schreibens erfolgen kann. Natürlich besteht auch die Gefahr eines unredlichen Gebrauchs der Technik, es gab schon Fälle, in denen Autoren offenbar ganze Textteile von der KI hatten verfassen lassen. 

Welche zentralen Unterschiede bleiben zwischen natürlichen und generierten Texten?
Ich gehe eher davon aus, dass in Zukunft die meisten Wissenschaftstexte, vor allem im Englischen, hybride Texte darstellen werden. Da eine Art Feedback Loop zwischen den Texten, mit denen das System gefüttert wird, und denen, die es hervorbringt, besteht, wird es schwierig sein zu erkennen, welche Anteile von Menschenhand und welche von der Maschine produziert wurden. Natürlich wird es weiterhin feuilletonistische und literarische Texte von Autoren mit ausgeprägtem Stil(bewusstsein) geben, aber dies wird sicherlich eher die Ausnahme darstellen. Unterscheiden werden sich diese Texte wie bisher auch schon durch den Gebrauch ungewöhnlicher Konstruktionen, insbesondere durch den kunstvollen Einsatz der Stilmittel der klassischen Rhetorik.

Ihrer Darstellung nach bringen beim wissenschaftlichen Übersetzen Large Language Models zwar Vorteile, werden aber den Wunsch nach vollautomatisierten Übersetzungsleistungen nicht erfüllen können: Wo sind die hauptsächlichen Stärken, wo die Grenzen?
Insbesondere die stärker der Kunstprosa zuzuordnenden Disziplinen werfen immer noch altbekannte Schwierigkeiten auf; gleiches gilt natürlich für sämtliche Gebiete, für die kaum Texte in elektronischer Form vorliegen, auf die sich LLMs stützen können (z.B. bestimmte Aspekte der Sportsprache).  Grundsätzlich neigen maschinelle Übersetzungssysteme dazu, Terminologie nicht konsistent zu übersetzen. Gerade bei der Terminologie sind Übersetzungen häufig stark kontextabhängig, man denke an philosophische Begriffe wie „Geist“ oder „Erkenntnis“; die Maschine hat aber kein wirkliches Textverständnis, so dass diese Kontextabhängigkeit häufig nicht beachtet wird. Darüber hinaus enthalten Wissenschaftstexte häufig Zitate, die entweder nicht als solche erkannt werden oder nicht in einer anerkannten, bereits vorhandenen Übersetzung wiedergegeben werden, da das System keine Suche durchführen kann oder nicht entscheiden kann, welche Übersetzung maßgeblich ist. Ältere Sprachstufen in historischen Texten sind natürlich auch kaum handhabbar für maschinelle Systeme. Auf der Mikroebene des Lexems oder der Wortgruppe geht es z.B. um approximative oder defekte Übersetzungen von Neologismen oder Ausdrücken ohne Gegenpart in der zielsprachlichen Fachsprache bzw. umgekehrt die Unfähigkeit, eine ausgangssprachliche Umschreibung durch einen zielsprachlichen Terminus (time taken for the ball to travel from one opponent to another = Flugzeit des Balles) zu ersetzen, fehlende Normalisierung bzw. Entmetapherisierung, desweiteren um Fehlinterpretationen komplexer Syntax (z.B. deutsche Satzklammer).

Welche (vielleicht besonders überraschenden) Erfahrungen haben Sie selbst gemacht?
Erstaunlich war für mich, dass GPT4 häufig in der Lage ist, eine adäquate Übersetzung für ein lexikographisch noch nirgends verzeichnetes Wort zu finden, wenn man eine entsprechende Umschreibung angibt. Beispielsweise suchte neulich eine Kollegin eine englische Übersetzung für eine veraltete Berufsbezeichnung im Bergbau des 19. Jahrhunderts. Ich habe das Wort auf Englisch für GPT4 umschrieben und „er“ fand die richtige Übersetzung!

Was ist Ihre Position bzw. Ihre erste Bilanz: Wie geht die Wissenschaft damit um? Blauäugig? Zu zögerlich? Welches sind die bedeutsamsten Unterschiede der diversen Fachkulturen?
Dazu gibt es leider bisher meines Wissens überhaupt keine Erhebungen. Allerdings befassen sich viele Sprachenzentren mit der Problematik und versuchen diese in ihre Schreibkurse zu integrieren.

Wie verhält es sich mit Fragen nach der Verantwortung z.B. für Fehler, die durch LLMs entstehen? Sind diese hinreichend geklärt? Wer ist auf welcher Grundlage wofür in der Verantwortung?
Bisher sind solche Fragen meines Wissens nicht abschließend geklärt. Die Herausforderung liegt darin, dass sowohl Entwickler als auch Nutzer in unterschiedlicher Weise verantwortlich sein können. Entwickler sind dafür verantwortlich, klare, zuverlässige und sichere KI-Systeme zu entwickeln, und Nutzer müssen die Ergebnisse und Empfehlungen der KI kritisch prüfen. Bei Fehlern oder Schäden durch KI ist es oft schwierig, die Haftung eindeutig festzulegen, was die Notwendigkeit eines soliden rechtlichen Rahmens für den Einsatz dieser Technologien unterstreicht. Wir müssen sicherstellen, dass sowohl Entwickler als auch Nutzer über ausreichende Kenntnisse und Verständnis der KI-Technologie verfügen und aktiv zusammenarbeiten, um Risiken zu minimieren und einen verantwortungsvollen Einsatz von KI zu gewährleisten.

Bezogen auf generative KI-Techniken beschwichtigen die einen, man habe es mit „stochastischen Papageien“ zu tun, die nur Bestehendes nachplappern. Andere malen Schockszenarien, wonach Menschen zumindest bald ersetzbar seien.
Die Fähigkeiten von LLMs gehen deutlich über die von stochastischen Papageien hinaus. Sie können nicht nur reproduzieren, sondern auch kreativ tätig werden. Dennoch kann ich auch für meinen Bereich das Urteil anderer Fachexperten nur bestätigen: unsere menschlichen analytischen Fähigkeiten sind der KI immer noch weit überlegen und werden es auch auf absehbare Zeit bleiben. Ein einfaches Beispiel aus meinem Bereich ist die Erstellung von Wörterbuchartikeln. Natürlich sind LLMs in der Lage, quasi auf Knopfdruck plausible Wörterbuchartikel zu erstellen, die ein Laie kaum von einem professionellem Wörterbuchartikel wird unterscheiden können. Eine geschult mit Korpora forschende Lexikographin wird jedoch stets zu wesentlich differenzierteren Ergebnissen kommen.

Sie haben Wissenschaftsübersetzer:innen gefragt, ob sie fürchten, ihre Arbeit werde ersetzbar. Was sind die Befunde?
Zum Zeitpunkt der Erhebung (April 2023) waren die Meinungen geteilt: 50% befürchteten einen starken Rückgang der Aufträge, der Rest sah keine Gefahren. Einige Kommentare ließen auf eine differenzierte Sicht schließen: es wird anerkannt, dass LLMs zu erstaunlichen Leistungen fähig sind, aber für erfahrene Übersetzer bleibt klar, dass bei schwierigen Wissenschaftstexten selbst eine Vorübersetzung mit der Maschine mit späterer Posteditierung meist eher hinderlich und zeitraubender sein kann als den Text von vornherein selbst zu übersetzen.

Was fehlt Ihrer Ansicht nach vor allem in der gegenwärtigen Diskussion – innerhalb der Wissenschaftsgemeinschaft und/oder auf gesellschaftlicher Ebene?
Zum einen – darauf bin ich in einem Vortrag im Januar eingegangen, der auf YouTube verfügbar ist (https://youtu.be/neEgh-RQrI0) – die ökologische Dimension der KI. Kurz gefasst bin ich der Meinung, die ich im Video begründe, dass die Verfügbarkeit von KI mittelfristig eingeschränkt sein wird (aufgrund fehlender Energie und Metalle). Sie wird in 20-25 Jahren nur noch für Militär, Medizin und bestimmte Bereiche der Universitäten zur Verfügung stehen können. Für umso wichtiger halte ich es, ihre breite Verfügbarkeit jetzt möglichst sinnvoll zu nutzen. Für meinen Bereich heißt das z.B. in Kooperation mit KI umfassende Konstruktikons (eine Art Großwörterbuch) zu schaffen, auf die auch nach der Hochzeit der KI noch zurückgegriffen werden kann.
Zum anderen sehe ich die Gefahr eines unreflektierten Einsatzes der KI bereits in der Schule, parallel zur pädagogisch wenig durchdachten sonstigen Digitalisierung unserer Schulen. Es werden teure Geräte angeschafft, um dann einfache Bedienprozesse innerhalb vorgefertigter Programme zu erlernen und traditionelle Kulturtechniken nun ins Digitale zu übertragen. Es tingeln bereits zahlreiche „Fortbildner“ (meist Fachleiter) durch die Lande, die den unbedingten massiven Einsatz von KI als Vorbereitung auf die ökonomische „Welt von morgen“ fordern und dabei übersehen, dass „Lernen lernen bleibt“ (Klaus Zierer) und ein voreiliger und übermäßiger Einsatz der KI Lernprozesse verkürzt oder abbricht.

Schriftliches Interview: Marlis Prinzing

Vertiefend: Siepmann, D. (2023): Auswirkungen von KI auf die Textproduktion von Wissenschaft. In: Forschung und Lehre, 6.7.2023, https://www.forschung-und-lehre.de/autor/siepmann-dirk-297