Meanwhile on Twitter... 

Vortrag bei der LICTRA 2017

Vortrag bei der LICTRA 2017

Mitte März hatte ich Gelegenheit, an meiner Alma mater einen Vortrag zu halten. Diesen dokumentiere ich hier zum Anhören und Lesen. (Weitere Informationen zur Konferenz gibt es hier.)

Meine sehr verehrten Damen und Herren,

liebe LICTRA-Teilnehmer,

ich möchte mich zunächst ganz herzlich bei Professor Sinner für die Einladung bedanken. Ich bin Ihnen sehr verbunden dafür, dass Sie statt unserer Generaldirektorin auch mit mir als einfachem Konferenzdolmetscher Vorlieb genommen haben!

Ich hatte nach dem Studium schon mal mit einer akademischen Laufbahn geliebäugelt. Aber nun bin ich auch so an diesem Rednerpult gelandet, was mich freut.

Für mich persönlich ist es immer eine große Freude, an die Universität Leipzig zurückzukehren. Sehen Sie mir also bitte nach, wenn ich kurz nostalgisch werde. Meine Studienzeit am IALT lag zwischen 1999 und 2005. Damals gab es noch die alte Dolmetschtrainingsanlage im Keller des Seminargebäudes mit ihrer, pardon, antiken technischen Ausrüstung. Man konnte die eigene Verdolmetschung zwar mitschneiden, das allerdings auf Audiokassetten (die Älteren im Saal werden sich noch daran erinnern). Auf Audiokassetten also, die dann in ein Aufzeichnungsgerät von der Größe einer IKEA-Kommode einzulegen waren. Drahtloser Internetzugang auf dem Gelände - inzwischen Standard - war nicht mehr als Zukunftsmusik zu einer Zeit, in der man noch ausschließlich in den weitläufigen Katakomben des Universitätsrechenzentrums ins Internet abtauchte. Anstelle des atemberaubenden Paulinums "zierte" das alte Hauptgebäude mit dem Spekulatius (also dem Karl-Marx-Relief) die Fassade hin zum Augustusplatz. Eines der wenigen Alleinstellungsmerkmale des Hauptgebäudes war der Paternoster-Aufzug, der mich bis heute fasziniert, wobei er vermutlich die Renovierung nicht überstanden hat. Ja, und das Lehrveranstaltungsverzeichnis stand noch nicht im Internet, sondern wurde in Form eines kleinen DIN-A5-Heftchens für die Studierenden gedruckt.

In meiner Diplomarbeit - ja, ich bin vom Bologna-Prozess weitestgehend verschont geblieben - habe ich mich mit dem damals noch embryonalen Einsatz von Computertechnik im Dolmetschen beschäftigt. In der Lehre an den wichtigsten deutschen Instituten spielte die EDV - im Unterschied zum Übersetzen - bei der mündlichen Zunft kaum eine Rolle, vielleicht mit Ausnahme des Instituts in Heidelberg. In der Praxis sah das schon besser aus; elektronische Kommunikation und Laptops in der Kabine waren durchaus etabliert. Ein wenig schmunzeln musste ich allerdings schon beim Überfliegen der 13 Jahre alten Arbeit: von CD-ROMs ist da die Rede, von Newsgroups und Faxgeräten und von Modems mit Telefonanschluss.

Doch genug der Nostalgie. Ob es mir nun gefällt oder nicht, das alles ist schon über zehn Jahre her und seitdem ist sprichwörtlich und buchstäblich viel Wasser die Pleiße entlang geflossen.

Seit ziemlich genau zehn Jahren schätze ich mich glücklich, für den Dolmetschdienst der Europäischen Kommission arbeiten zu dürfen. Mit über fünfhundert festangestellten und mehreren tausend, freiberuflichen Konferenzdolmetschern für 24 Amtssprachen und mit dutzenden Konferenzen pro Tag ist der SCIC, wie er trotz aller Umstrukturierungen noch immer heißt, der größte Dolmetschdienst der Welt.

Die Verordnung über die Amtssprachen war der allererste europäische Rechtstext, und somit blicken der SCIC bzw. seine Vorgänger auf eine lange Geschichte zurück, die ich vor allem aus den Erzählungen und Anekdoten der älteren Kollegen kenne. Bevor die Computer Einzug hielten, wurde der Arbeitsplan, die Zuordnung von Dolmetschern zu bestimmten Sitzungen und Räumen an einer großen Pinnwand angebracht. Zu Beginn der Woche bzw. des Tages ging man zu dieser Pinnwand und erfuhr, ob man sich diesmal mit der Marktlage für Olivenöl, Regelungen zur Nuklearsicherheit oder der zollrechtlichen Einreihung (Klassifizierung) von Katzenstreu zu beschäftigen hatte. Damals freilich gab es weniger als die Hälfte der heutigen Amtssprachen und folglich auch viel weniger Dolmetscher. Stellen Sie sich einmal vor, man müsste versuchen, die heutige Situation mit den damaligen Möglichkeiten in den Griff zu bekommen.

Man bräuchte eine SEHR lange Wand und vor allem SEHR viel Papier. Und das Ganze müsste man möglicherweise mehrmals pro Tag auswechseln und aktualisieren, denn die Planung wird zusehends kurzfristiger und wechselhafter. Ganz zu schweigen davon, dass die Anzahl der Themen und Politikfelder, mit denen sich die EU beschäftigt, seit damals auch erheblich zugenommen hat. Die Zuordnung von Sitzungen, Räumen und Dolmetschern erfolgt inzwischen vollständig EDV-basiert. Wer einen Anflug von Nostalgie verspürt, kann aber auch ein automatisches Telefonsystem namens Cristal anrufen, um sich sein Wochenprogramm vorlesen zu lassen.

Es gibt zudem auch ein zentrales Team, das sich darum kümmert, Vorbereitungsunterlagen wie Tagesordnungen, Rechtstexte oder Glossare zusammenzustellen. All diese Informationen sind dann zentral über SCICnet, also das geschützte Intranet abrufbar. Wir bekommen nach wie vor in den meisten Sitzungen die Unterlagen auf Papier, in der Kabine, aber oftmals hat man als ökologisch gesinnter Deutscher schon ein schlechtes Gewissen, wenn man die Folgenabschätzung mit mehreren hundert Seiten ausgedruckt vor sich sieht. Der Trend geht klar zur elektronischen Vorbereitung - Stichwort Paperless. An dieser Stelle vielleicht ein kurzer Blick hinüber zum Europäischen Parlament, das ja über einen eigenen Dolmetschdienst verfügt: Dort gibt es seit Jahren eine konzertierte Strategie zum Umstieg auf papierloses Arbeiten. Die Dolmetscher dort bekommen von ihrem Arbeitgeber ein iPad gestellt, erhalten dafür aber grundsätzlich keine Papierunterlagen mehr, sondern müssen sich Vorbereitungsmaterial elektronisch besorgen.

Atus Dolmetschersicht ergeben sich durch die Technologisierung viele Vorteile und Vereinfachungen. Planung und Vorbereitung von Einsätzen, Beantragung von Arztterminen oder Urlaub, Neuigkeiten aus dem Dienst und der Kommission, Weiterbildungsthemen oder Kontaktinformationen von Kolleginnen und Kollegen für eine Verabredung zum Mittagessen - all das finden wir auf SCICnet. Und das ist auch gut so. Die festangestellten Dolmetscher verfügen nicht über eigene Büros, sondern lediglich über Gemeinschaftsräume mit einem Kopierer, zwei, drei PCs und Postfächern. Ja, Postfächer gibt es bei uns noch in nicht-virtueller Form!
Und viele der bspw. deutschsprachigen freiberuflichen Dolmetscher haben ihre Berufssitze in ganz Europa, in Madrid, Berlin oder Athen. SCICnet ist also nicht nur ein Arbeitswerkzeug, sondern eher schon ein virtueller Treffpunkt. In Foren werden berufliche und weniger berufliche Themen oft kontrovers diskutiert. Und in Sitzungen mit vollem Dolmetschregime, wie das bei uns so schön auf EU-Deutsch heißt, also mit allen Amtssprachen, ist die elektronische Kommunikation zwischen Kabinen am entgegengesetzten Ende des Saales oft viel schneller als ein langer Fußmarsch. Dafür wäre der natürlich gesünder, aber das ist ein anderes Thema.

Die Planung von Dienstreisen wird ebenfalls einfacher, man ist weniger vom Reisebüro abhängig, und durch Vergleichsmöglichkeiten werden Dienstreisen oft auch günstiger, was in Zeiten knapper Kassen allenthalben auch keine schlechte Nachricht ist.

Herauszoomen: Wenn wir die Arbeit des SCIC genauer betrachten, sehen wir im Wesentlichen drei große Bereiche: Konferenzorganisation, Verwaltung von Sitzungssälen und die Erbringung von Dolmetschleistungen. Und in allen drei Arbeitsbereichen spielt Technologie eine erhebliche Rolle.

Zunächst die Konferenzorganisation. SCIC organisiert auch für andere Dienststellen der Kommission Sitzungen und Konferenzen, und nicht unbedingt nur mit Verdolmetschung. Dabei kommt natürlich auch Informations- und Kommunikationstechnologie zum Einsatz, bspw. bei der Anmeldung von Teilnehmern oder ihrer Registrierung vor Ort, die oftmals elektronisch erfolgt. Darüber hinaus bieten wir seit mehreren Jahren auch eine Live-Videoübertragung über das Internet, also Webstreaming. Gutes Beispiel: Die SCIC-Universitäten-Konferenz, die in einigen Wochen wieder stattfindet, und bei der es nicht nur um Inhalte, sondern auch um das Zelebrieren von Mehrsprachigkeit geht. Auch internetgestützte Anwendungen für mehr Interaktivität in großen Veranstaltung werden geprüft, bspw. für Abstimmungen oder die direkte Kommunikation zwischen den Teilnehmern.

Dann Punkt zwei - die Verwaltung von Sitzungssälen. Seit dem vergangenen Jahr ist der SCIC kommissionsweit für diese Aufgabe zuständig. Wir kümmern uns um kleine Besprechungszimmer, in die nicht einmal eine mobile Kabine passt ebenso wie um riesige Säle, in denen sich die fest eingebauten Kabinen über zwei Etagen erstrecken. Sowohl die reine

Administration als auch der technische Betrieb der Räumlichkeiten und Ausstattung erfolgt inzwischen elektronisch. Digitale Konsolen sind, zusammen mit anderer Technik, in einem Netzwerk zusammengeschlossen und können aus der Ferne gesteuert werden. Videobilder aus dem Saal oder PowerPoint-Präsentationen können zentral auf die Bildschirme in den Dolmetscherkabinen gespielt werden. Und gerade wenn man sich als Dolmetscher einmal wieder in der oberen der zwei Kabinenetagen wiederfindet, ist man für eine Rednerkamera überaus dankbar, die automatisch denjenigen ins Visier nimmt, der im Saal das Mikrofon einschaltet. Manchmal hat man in einem solchen Szenario fast das Gefühl, man würde Remote-Dolmetschen betreiben.

Damit sind wir nämlich schon bei Arbeitsfeld Nummer drei: der Erbringung von Dolmetschleistungen. Simultandolmetschen funktioniert nur mit Konferenztechnologie. So weit so offensichtlich. Noch einen Schritt weiter geht es beim Remote- bzw. Ferndolmetschen. Der SCIC gehörte zu den ersten Einrichtungen, die bereits vor 1995 Tests zu mehrsprachigen Videokonferenzen mit Verdolmetschung durchführten, die aber wegen mangelnder Qualität eingestellt werden mussten. (Nicht Qualität der Verdolmetschung, Qualität der Technik, wohlgemerkt!)

Gegen Ende der Neunzigerjahre gab es dann Tests zum Remote-Dolmetschen, und das auch mit wissenschaftlicher Begleitung und entsprechenden Erkenntnissen (schnellere Ermüdung, abfallende Leistung, Entfremdung usw.).

Die erste hochrangige Feuerprobe fand 2005 bei einem Gipfeltreffen der Staats- und Regierungschefs unter britischem Vorsitz auf Schloss Hampton Court statt. Die Gipfelregie hatte, unter anderem aus Platzmangel und wegen des Denkmalschutzes, beschlossen, dass im eigentlichen Tagungsraum - irreführend als “Great Hall” bezeichnet - keine Kabinen installiert werden sollten. Also baute man im Freien ein großes Zelt auf, in dem Dolmetscher samt Technik untergebracht wurden. Und seit einigen Jahren arbeitet der SCIC im Rahmen einer Sonderregelung bei den Arbeitsessen der Staats- und Regierungschefs in Brüssel ebenfalls “remote”. Und das nicht nur außerhalb des Sitzungsraumes, sondern sogar außerhalb des Ratsgebäudes. Zu Jahresbeginn wurde das neue Europa-Gebäude in Betrieb genommen - in der EU-Szene liebevoll entweder “Hermans Ei” (nach Herman von Rompuy) oder “Tusk Tower” (nach dem derzeitigen Ratspräsidenten) genannt. Dort finden die Sitzungen der Staats- und Regierungschefs statt. Das Dolmetschteam sitzt derweil in einem Sitzungssaal im benachbarten Justus-Lipsius-Gebäude. Aufgrund vieler Faktoren - Anzahl der Sprachen, Vertraulichkeit der Inhalte, Arbeitsbedingungen der Dolmetscher - handelt es sich dabei um ein sehr aufwändiges System, das sich nicht ohne weiteres auf den Privatmarkt übertragen lässt.

So ähnlich wie Remote sind die sogenannten Virtual Classes. Wie einige vielleicht wissen leistet der SCIC für Partnerhochschulen pädagogische Unterstützung, sowohl vor Ort als auch über große Entfernungen. Wir halten Reden, beurteilen Dolmetschleistungen (SCIC-Dolmetscher vs. Dozent vor Ort) oder machen Weiterbildungen jenseits der reinen Dolmetschtechnik (bspw. Sitzungsvorbereitung oder Nutzung neuer Technologien). Diese Virtuellen Klassen sind im Wesentlichen Videokonferenzen, die bilateral (SCIC + 1 Uni) oder multilateral (SCIC mit mehreren Universitäten) durchgeführt werden und sowohl das Konsekutivdolmetschen als auch das Simultandolmetschen abdecken können. Im letzteren Fall werden also sogar Kabinen hinzugeschaltet.

Sie sehen also, der SCIC hat den technologischen Fortschritt durchaus fest im Blick. Es gibt gelegentlich Demonstrationen neuer Technologien für interessierte Kolleginnen und Kollegen ( Linguali, TextOnTop) . Vertreter des SCIC beteiligen sich an Normungsaktivitäten der ISO (demnächst erscheinen zahlreiche neue Normentexte) oder an der Entwicklung neuer Dolmetschpulte (bspw. die Lingua ID von Televic). Und das gilt auch für eine Entwicklung, die in letzter Zeit mehr Fahrt aufgenommen hat: die künstliche Intelligenz.

Inzwischen hört man dieses Stichwort, oder Buzzword vielmehr, fast überall. Jedes neue Stück Hardware oder Software bekommt inzwischen eine Prise “künstliche Intelligenz”, auch wenn das manchmal etwas zweifelhaft ist. Dabei sind die echten Fortschritte in diesem Bereich völlig unbestritten: Im letzten Jahr hat eine KI-Software einen der besten Go-Spieler weltweit definitiv besiegt. Und das ausgerechnet bei Go, dass vielen als noch kniffliger gilt as Schach. Tja, und damit sind wir direkt beim eigentlichen heißen Eisen: der automatischen Übersetzung bzw. Verdolmetschung.

Die Überwindung der Sprachbarriere ist seit dem Turmbau zu Babel wohl einer der großen Menschheitsträume. Einer, der immerhin Generationen von Übersetzern und Dolmetschern Beschäftigung und Auskommen beschert hat! Und seit den frühen Tagen der Informationstechnologie haben Ingenieure und Entwickler versucht, Maschinen zur Übersetzung bzw. Verdolmetschung zu befähigen. Angefangen hat es mit der regelbasierten maschinellen Übersetzung, bei der man geduldig versuchte, den intellektuell noch etwas eingeschränkten frühen Computern die Wege und Irrwege humansprachlicher Grammatik beizubringen. Wir alle hier wissen aus

leidvoller Erfahrung, wie schwer das sein kann. Und so waren die Erfolge dann auch, nun ja, überschaubar.

Doch als die Technik dann immer leistungsfähiger wurde, konnte man damit beginnen, den Maschinen große Korpora von Paralleltexten einzuflößen. Die Humanübersetzer konnten mit Stolz behaupten, dass die Computer-Kollegen ihre Übersetzungen als Lernmaterial bekommen und ansonsten völlig aufgeschmissen wären. Die statistische MÜ war geboren und brachte vergleichsweise bessere Ergebnisse. Große Technologieunternehmen wie Microsoft und Google lancierten ihre Übersetzungstools im Internet und brachten langsam etwas Unruhe in die Übersetzergemeinde.

Und dann, ja dann kam der nächste Quantensprung, die neurale maschinelle Übersetzung. Auch hier greift man auf Paralleltexte zurück, muss diese aber nicht mehr mit Entsprechungen und grammatischen Zusammenhängen annotieren, sondern wirft sie einem künstlichen neuralen Netz sozusagen zum Fraß vor.

Ach ja: Falls jemand im Raum ist, der mir verständlich erklären kann, was denn nun ein neurales Netz WIRKLICH genau ist, und wie es funktioniert, dem gebe ich gern einen Kaffee aus. Bis dahin werde ich mich, wie sich das für Dolmetscher gehört, mit meinem gefährlichen Halbwissen weiter durchwursteln.

Jedenfalls wird die Ergebnisqualität von NMÜ-Übersetzungen als bisweilen sehr gut, jedenfalls aber vielversprechend beurteilt. Neulich habe ich gelesen, dass Übersetzungen mit statistischer MÜ oftmals als genauer eingeschätzt werden, die Zieltexte von neuraler MÜ sich dafür aber flüssiger lesen. Google Translate jedenfalls hat inzwischen bei mehreren Sprachenpaaren auf neurale MÜ umgestellt. Englisch-Deutsch ist auch dabei.

Wie wir von Peter Schmitt im Eröffnungsvortrag am Sonntag gehört haben, lohnt es sich, differenziert zu urteilen. Maschinelle Übersetzungen sind nicht durchweg gut. Sie sind aber auch nicht durchweg schlecht. Je nach Anwendungsbereich kann maschinelles Übersetzen eine gute Lösung sein, oder eben auch ein Griff daneben. Auch der skeptischste Übersetzer muss anerkennen, dass die Technologie gerade in den letzten Jahren riesige Fortschritte gemacht hat. Diese Erkenntnis ist wichtig, denn Technologiefirmen arbeiten mit Hochdruck daran, nach schriftlichen Texten auch mündliche Äußerungen zu übertragen. Die beiden Riesen Microsoft und Google verfolgen hier leicht unterschiedliche Ansätze. Microsoft hat seinen elektronischen Dolmetscher nicht etwa in der Bing-Übersetzungsmaschine untergebracht, sondern in seiner Kommunikationssoftware Skype. Momentan funktioniert das als “Preview” nur auf Windows-Computern und für acht Sprachen bei Telefonaten bzw. 50 Sprachen bei Chat-Gesprächen. Google dagegen bringt vor allem seiner Smartphone-Übersetzerapp das Sprechen bei, was für kurze, überschaubare Konversationen durchaus funktionieren kann. Das Grundprinzip ist freilich identisch:

1. Gesprochene Sprache erkennen und in Text umwandeln (speech-to-text). Nicht zuletzt dank der immer stärkeren Verbreitung von Sprachassistenten wie Siri oder Alexa nimmt die Zuverlässigkeit der Spracherkennung stetig zu, auch unter schwierigen Umständen (bspw. Entfernung zwischen Sprecher und Mikrofon, oder Hintergrundgeräusche). Interessant ist hier die Differenzierung zwischen reiner Spracherkennung und fortgeschrittener natürlicher Sprachverarbeitung, bei der Siri, Alexa & Co. dann ja auch die Arbeitsaufträge des Nutzers erkennen müssen.

2. Maschinelle Übersetzung des erkannten Textes. Dazu habe ich gerade einiges gesagt.

3. Sprachausgabe des übersetzten Textes (text-to-speech).

Im Moment wird oft noch eine Internetverbindung benötigt, da zumindest bei manchen Diensten sowohl die Texterkennung als auch die maschinelle Übersetzung nicht auf dem Endgerät selbst, sondern auf wesentlich leistungsstärkeren Servern in der sogenannten “Cloud” durchgeführt wird. Das Ergebnis wird dann zurück aufs Endgerät geschickt, und das in oft atemberaubender Geschwindigkeit. Seit einiger Zeit versuchen aber Startups, diese Technologie in sogenannte “Wearables”, also kleine tragbare und spezialisierte Geräte zu packen.

Der “Pilot” von Waverley Labs kommt im Demovideo beeindruckend rüber. Der Erfinder störte sich ja daran, dass bei klassischen Hosentaschen-Übersetzern immer das Smartphone im Wege war, man nicht frei kommunizieren könne. Die Crowdfunding-Kampagne war mit einem Ergebnis von 4,5 Mio USD unglaublich erfolgreich, aber ausgeliefert wurden bisher noch keine Geräte. Die Crowdfunder sollen im Mai versorgt werden, alle anderen voraussichtlich im Sommer. In einem Test vor einigen Tagen war zu sehen, dass der Pilot-Ohrhörer mit dem Smartphone verbunden werden muss. Auch wenn dieses dann wohl in der Hosentasche bleiben kann, entsteht der Eindruck als wäre der Pilot dann doch nicht viel mehr als ein drahtloser Ohrhörer. Und so simultan wie im ursprünglichen Werbevideo klappt es auch nicht: in der aktuellen Version wartet der “Pilot” auf das Ende einer Äußerung und übersetzt erst dann. Mit “Ili” und “Travis” planen zwei Unternehmen die Vermarktung eigenständiger Übersetzungshardware auf dem Markt. Diese, so die selbstbewusste Werbung, würden ohne Internetverbindung und sehr zügig für Verständigung jenseits aller Sprachgrenzen sorgen. Von “Ili” freilich gibt es bislang vor allem schicke Produktanimationen und ein flippiges Werbevideo, das wir im Eröffnungsvortrag auch gesehen haben. Und der niederländische CEO von “Travis the Translator” wandte sich unlängst in einem YouTube-Video an potenzielle spanischsprachige Kunden. Aber statt sein Wundergerät einzusetzen, dass er in der Hand hielt, tat er das in gebrochenem Englisch. Warum?

Ich möchte an dieser Stelle ein Geständnis machen, das aber bitte unter uns bleibt. Ich habe Douglas Adams “Hitchhiker’s Guide to the Galaxy” immer noch nicht gelesen, nur eine Verfilmung gesehen. Aber ich denke, ich weiß, was ein Babelfisch ist. Und der Pilot ist kein Babelfisch. NOCH nicht. Aber mit der weiter voranschreitenden Schrumpfung der Bauteile, immer besser Internetabdeckung und weiteren Fortschritten bei der künstlichen Intelligenz ist das letzte Wort zum Babelfisch definitiv noch nicht gesprochen.

Es dürfte auch spannend werden zu beobachten, wie verschiedene Ansätze miteinander verschmelzen. So hat Google vor einigen Jahren die Smartphone-Anwendung “WordLens” gekauft und in den eigenen Übersetzer integriert. Damit reicht es, die Kamera bspw. auf ein Straßenschild oder eine Speisekarte zu richten, und schon sieht man in Echtzeit die Übersetzung auf dem Bildschirm. Das funktioniert erstaunlich gut. Und manches Mal, wenn ich mit einer internationalen Delegation eine deutsche Kneipe betrete, graut es mir vor all den typisch deutschen Gerichten, die ich dann gleich übersetzen und erklären muss. Forscher der Universität Oxford haben zudem mit “LipNet” ein KI-System zum Lippenlesen entwickelt, dass zumindest bei einigen Experimenten, mit bestimmten Korpora, menschliche Lippenleser in Sachen Zuverlässigkeit und Genauigkeit übertrumpft hat.

Ich könnte mir durchaus vorstellen, dass ein zukünftiges KI-basiertes Dolmetschsystem Spracherkennung und Lippenlesen kombiniert und somit noch akkurater arbeitet. Wenn dann noch die Sprachsynthese, also die computergenerierte Sprachausgabe, weiter verbessert wird, dann könnte es richtig spannend werden. Bislang ist zumindest aus meiner Sicht gerade für längere Einsätze eine Computerstimme trotz aller Fortschritte immer noch zu monoton und unnatürlich.

Aber warum will man eigentlich menschliche Dolmetscher durch Maschinen ersetzen? Geht es allein ums Geldsparen? (Durchaus möglich.) Um Arbeitsbedingungen und Einsatzzeiten? (Sicherlich.)

Es gibt nach wie vor gewisse Hürden zu überwinden. Trotz aller Verbesserungen können Maschinen nach wie vor hoch qualifizierte Sprach- und Kommunikationsexperten nicht ersetzen. Anne-Katrin Ende hat in ihrem gestrigen Vortrag ja die unzähligen Kompetenzen eines modernen Dolmetschers aufgezählt - da haben die großen Technologiekonzerne noch einiges vor sich! Heute würde ja auch keine respektable Firma einfach die eigene Website mit Google Translate übersetzen lassen und dann den internationalen Durchbruch erwarten. Hoffentlich! KI-System brauchen nach wie vor “Futter”, also Humanübersetzungen, um zu lernen und um besser zu werden. Zur kreativen Sprachschöpfung sind sie nicht fähig. Aber gerade als Dolmetscher muss man ja oft in Sekundenschnelle reagieren und ein Wort übertragen, das der Sprecher gerade erfunden hat. Diese sprachliche Kreativität ist alles andere als trivial, und nur wirklich gute Dolmetscher verfügen darüber. Menschliche Dolmetscher.

Die großen Technologieplattformen investieren viel Aufwand in die KI-basierte natürliche Sprachverarbeitung. Allerdings konzentrieren sie sich auf die großen Sprachen, wie etwa Englisch, Chinesisch oder Spanisch, weil dort die größte Ergebnisrendite zu erwarten ist. Aber als Europäische Union sind wir dem Prinzip "Einheit in Vielfalt" und dem Grundsatz der Mehrsprachigkeit verpflichtet. Können, dürfen wir da akzeptieren, dass einige Sprachen gleicher sind als andere? Bei der vorhin erwähnten jährlich stattfindenden SCIC-Universitäten-Konferenz wird immer auch über die Entwicklung der Nachfrage nach Verdolmetschung berichtet, aufgeschlüsselt nach Sprachen und Institutionen. Dabei stellen wir natürlich fest, dass auch bei uns mehr Sitzungen auf Englisch stattfinden, d.h. teilweise ohne uns. Im Laufe der Zeit entwickelt sich die Nachfrage nach bestimmten Sprachen immer mal wieder unterschiedlich, da spielt dann z. Bsp. auch der rotierende Ratsvorsitz eine Rolle. Momentan führt Malta den Vorsitz im Ministerrat, was natürlich zu mehr Arbeit für die maltesischen Kollegen führt.

Der SCIC verdolmetscht oft Treffen auf höchster politischer Ebene. Sitzungen, in denen oft vertrauliche oder kontroverse Themen diskutiert werden. Sind wir einverstanden damit, dass diese Diskussionen von Maschinen verdolmetscht werden, vielleicht sogar ohne menschliche Aufsicht? Von Maschinen, die von kommerziellen Unternehmen betrieben werden, möglicherweise außerhalb der EU, unter Nutzung streng geheimer Algorithmen? Darüber lohnt es sich nachzudenken!

Als Dolmetscher und vor allem als größter Dolmetscherdienst in der Welt müssen wir uns diese schwierigen Fragen stellen. Es wäre töricht, technologische Entwicklungen abzutun, zu ignorieren. Ebenso töricht wäre es, jedem Techniktrend einfach blindlings hinterherzulaufen. Unsere Aufgabe muss es sein, technologische Entwicklungen offen, aber fachlich-kritisch zu beurteilen und mit den Ingenieuren und Entwicklern in einen konstruktiven Dialog zu treten, der beiden Seiten hilft.

Vor einigen Jahren sagte Bill Wood, Urgestein des amerikanischen Dolmetschmarktes, dass nicht Technologie an die Stelle der Dolmetscher treten. Sondern Dolmetscher, die sich Technologie zu Nutze machen. Die Dolmetscher bei der Europäischen Kommission tun genau das. Sie nutzen Technologie, um ihre Arbeit zu organisieren, Einsätze vorzubereiten und auf höchstem Niveau mehrsprachige Kommunikation zu ermöglichen, ohne dabei die Technologie zu sehr in den Vordergrund zu stellen. Bei allem technischen Fortschritt meine ich doch, dass Dolmetschen eine zutiefst kreative, eine menschliche und (zwischen)menschliche Tätigkeit ist. Und ich hoffe sehr, dass das auf absehbare Zeit auch so bleiben wird.

Endlich USB-Sticks am Tablet nutzen!

Endlich USB-Sticks am Tablet nutzen!