Übersetzungstools und Chatbots arbeiten in Sekundenschnelle, aber den Beruf des*der Übersetzers*in haben sie mitnichten revolutioniert. Zwei Fachfrauen sprachen mit der woxx über ihre Erfahrungen.
Lara Schroeder

Lara Schroeder ist eine Linguistin, die sich auf Übersetzungen, Untertitelung und Korrekturen spezialisiert hat. Ihr Fokus liegt dabei auf luxemburgischen, englischen und deutschen Texten, wobei sie dank ihres Hintergrunds in Umweltwissenschaften besondere Kompetenzen im Umgang mit Umweltthemen aufweist. (© Michel Logeling – Brainplug)
Ich habe mich auf Übersetzungen in luxemburgischer Sprache sowie Übersetzungen im Bereich Nachhaltigkeit und Naturschutz spezialisiert. Diese fachliche Ausrichtung ist mit einem gewissen Privileg verbunden: Ich arbeite ausschließlich mit Klient*innen zusammen, die noch auf Humanübersetzungen Wert legen. Es gibt sogenannte Machine-Translation-Post-Editing-Projekte, kurz MTPE-Projekte, bei denen man als Übersetzer*in einen schon bestehenden KI-basierten beziehungsweise maschinell übersetzten Text nur noch überarbeitet. Solche Aufträge lehne ich kategorisch ab. Das Post-Editing macht weniger Spaß, die Textqualität ist schlechter und manchmal frisst die Arbeit mehr Zeit, weil man hinter der KI aufräumen und missverständliche oder ungenaue Formulierungen korrigieren muss, was frustrierend ist.
Dabei können ChatGPT oder DeepL durchaus nützlich sein. Für meine eigene Übersetzungsarbeit greife ich auf die Tools zurück, wobei ich sie ganz unterschiedlich nutze. Übersetzungssysteme sind für mich Impulsgeber: Ich gebe einen Satz ein und schaue mir an, was mir DeepL oder Google Translate vorschlagen. Der Vorteil davon ist, dass man so nicht bei null anfangen muss. Die maschinelle Übersetzung bietet mir aber lediglich einen Anhaltspunkt, kein fertiges Produkt. ChatGPT nutze ich wiederum für spezifische Suchanfragen und weiterführende Recherchen. Zu beachten ist, dass man dafür ein gewisses Know-how braucht. Man muss wissen, wie man die Prompts formuliert, damit man die besten Resultate erzielt und sicherstellen kann, dass die Vorschläge auch korrekt sind. Für Übersetzungen hochspezifischer Texte sind sowohl Chatbots als auch KI-gestützte Übersetzungsdienste eher ungeeignet, weil sie die technische Terminologie fast immer fehlerhaft übersetzen. Das, was einem ChatGPT oder DeepL in einem solchen Fall ausspucken, kann man also meistens getrost verwerfen.
Allgemein sehe ich es kritisch, sich mehr und mehr auf Übersetzungstools oder generative KI zu verlassen, da so die Sprachkenntnisse verloren gehen. Und damit meine ich nicht nur die menschlichen, sondern auch die der Maschine. Die Sprachfähigkeit der KI-Systeme leidet, wenn sie zunehmend mit gleichförmigem Input trainiert werden, der bereits durch KI-Bearbeitung entstanden ist. Und die Sprachkompetenzen der Menschen, die immer homogenere Texte lesen, verringern sich ebenfalls.
Claire Schmartz

Claire Schmartz’ berufliches Profil fußt auf drei unterschiedlichen Säulen, da sie als Autorin, freie Journalistin sowie als Übersetzerin arbeitet. Sie widmet sich vor allem literarischen Prosaübersetzungen aus dem Französischen und Englischen ins Deutsche, deckt aber auch ein breites Spektrum an Sach- und Fachtexten aus unterschiedlichen Themenbereichen ab. (© Pitt-Simon)
Dass KI Einzug gehalten hat in den Bereich der Übersetzung, ist an sich etwas Gutes, denn es vereinfacht die Kommunikation. Wenn ich nach China reise, kann ich mit einer App einen Text scannen und weiß dann, ob es darin um Zitronen oder Orangen geht – um ein banales Beispiel zu nennen. Das Problem, das ich sehe, ist, dass die Leser*innen einer KI-generierten Veröffentlichung oft automatisch annehmen, der Text sei fundiert, nur weil er auf den ersten Blick plausibel wirkt. Das ist aber nicht der Fall. Eine KI macht noch immer viele Fehler in Bezug auf die semantische Struktur des Textes. Sie verbindet Dinge inhaltlich miteinander, die eigentlich nicht zusammengehören, und schafft so falsche kausale Zusammenhänge und Chronologien. Man braucht immer einen Menschen, der das auffängt und den Text lektoriert, und damit drängt sich ein moralisches Problem auf. Diese Arbeit, die oft von Übersetzer*innen übernommen wird, wird als weniger schwierig angesehen und damit auch schlechter bezahlt.
Mir bereitet diese Art des Lektorats und Korrekturlesens wenig Freude, weil ich nicht selbst kreativ werden darf, sondern mich damit begnügen muss, einen mittelmäßigen Text aufzuhübschen. Viele Übersetzer*innen, die im literarischen Bereich arbeiten, weigern sich deswegen, als Post-Editor*in zu arbeiten, weil sie den Spaß an der – finanziell ohnehin kaum lohnenswerten – Sache verlieren. Darüber hinaus muss man bedenken, dass die KI, um überhaupt einigermaßen gute Texte schreiben zu können, mit sehr vielen urheberrechtlich geschützten Texten gefüttert wurde. Wenn man KI benutzt, bedient man sich also eines Korpus, der für ihr Training nicht hätte verwendet werden dürfen.
Ich selbst fertige sowohl technische als auch literarische Übersetzungen an. Für die technischen Übersetzungen arbeite ich gerne mit sogenannten CAT-Tools („Computer-Assisted Translation Tools“, Softwares mit Übersetzungsspeichern, die Übersetzer*innen bei ihrer Arbeit unterstützen, Anm. d. Red.). Die sind relativ zuverlässig und praktisch. Mit Chatbots wie ChatGPT dürfte ich hingegen oft überhaupt nicht arbeiten, da viele Übersetzungsverträge neuerdings die Klausel enthalten, dass die Arbeitsleistung ohne Zuhilfenahme von KI erfolgen muss und man den Text – nicht einmal einen einzelnen Teilsatz davon – nicht in ein solches System einspeisen darf.
DeepL vs. ChatGPT Chatbots wie ChatGPT oder Perplexity und Übersetzungssysteme wie DeepL Translate oder Google Translate nutzen für ihre Übersetzungen KI-Technologien, die sich hinsichtlich ihrer Schwerpunkte und Trainingsmethoden voneinander unterscheiden. Online-Übersetzungsdienste wie DeepL basieren auf der sogenannten neuronalen maschinellen Übersetzung („neural machine translation“, NMT). Bei dieser Übersetzungsmethode werden mehrschichtige künstliche neuronale Netze verwendet. Das nennt sich „Deep Learning“. Hierdurch wird die Verarbeitung komplexer Datenmuster möglich. Konkret lernt das System sprachliche Regeln, indem es riesige Mengen an Sätzen in verschiedenen Sprachen analysiert und Sprachmuster identifiziert. Durch die Nutzung von Massen an Übersetzungen von Menschen wird es für das System möglich, die wahrscheinlichste Übersetzung aus der Quellsprache in die Zielsprache vorherzusagen. Generative-KI-Tools wie ChatGPT bauen ihrerseits auf „Large Language Models“ (LLMs) auf.1 Während bei der NMT Satzpaare aus unterschiedlichen Sprachen genutzt werden, um das System zu trainieren, fokussieren sich die Systeme, die auf LLMs beruhen, zunächst auf eine Sprache. Sie werden ebenfalls mit einer gewaltigen Datenmenge trainiert und nutzen „Deep Learning“. LLMs können, durch Berücksichtigung des Kontexts, Wörter und Wortfolgen in einem Satz vorhersagen. Chatbots sind sogenannte „general-purpose language models“, das heißt, sie besitzen eine breite Palette an Anwendungsmöglichkeiten, zu denen auch Übersetzungen gehören.
1 Übersetzungstools wie DeepL bauen auch zunehmend auf Large Language Models (LLMs) auf. DeepL hat Mitte November vergangenen Jahres ein „next-generation language model“ vorgestellt, das auf einem LLM beruht.