• vom 26.02.2017, 09:29 Uhr

Digital-Life

Update: 26.02.2017, 14:33 Uhr

Maschinen-Dolmetscher

Der Rechenkünstler als Dolmetscher




  • Artikel
  • Lesenswert (41)
  • Drucken
  • Leserbrief




Von WZ Online, Franz Zauner

  • Der Forscher Gerhard Budin über automatisches Übersetzen, die künftige Rolle menschlicher Dolmetscher und das Sprachvermögen der Computer.

Der Universitätsprofessor Gerhard Budin glaubt nicht, dass die Arbeitsplätze der Dolmetscher in Gefahr sind.

Der Universitätsprofessor Gerhard Budin glaubt nicht, dass die Arbeitsplätze der Dolmetscher in Gefahr sind.© Privat Der Universitätsprofessor Gerhard Budin glaubt nicht, dass die Arbeitsplätze der Dolmetscher in Gefahr sind.© Privat

Wiener Zeitung: Google und viele andere Konzerne investieren Milliardenbeträge in automatisches Übersetzen und versprechen epochale Durchbrüche in den kommenden Jahren. Wie stehen die Chancen, dass neuronale Netze der babylonischen Sprachverwirrung ein Ende machen?

Prof. Gerhard Budin: Wir sehen solche Ankündigungen einerseits mit Skepsis, denn die Idee der maschinellen Übersetzung existiert schon seit den fünfziger Jahren des letzten Jahrhunderts. Obwohl schon sehr viel Geld investiert wurde, sind die Ergebnisse vergleichsweise bescheiden. Man hat sich schon sehr viel früher solche Durchbrüche erwartet, und sie sind nicht gekommen. Andererseits gab es in den letzten Jahren unübersehbar substanzielle Verbesserungen. In gewissen Fachgebieten und für bestimmte Textsorten sind die Ergebnisse der maschinellen Übersetzung schon jetzt sehr gut. Für andere Textsorten und auch für bestimmte Sprachen sind die Ergebnisse nach wie vor unbrauchbar. Da gibt es große Unterschiede, man kann das also nicht pauschal beurteilen.

Für welche Textsorten sind Computer empfänglicher?

Generell bei Texten, die hoch repetitiv sind, in denen viele Ausdrücke immer wieder vorkommen, und deren Satzbau einfach gehalten ist. Das klassische Beispiel sind Bedienungsanleitungen. Bei Texten dieser Art funktioniert das automatische Übersetzen schon sehr gut. Aber selbst für größere Firmen zahlen sich Investitionen auf diesem Gebiet nur dann aus, wenn regelmäßig sehr viele Texte zum Übersetzen anfallen. Es gibt darüber hinaus schon jetzt eine ganze Reihe von Arbeitsweisen, die mit der maschinellen Übersetzung verknüpft sind, wo also Mensch und Maschine zusammenarbeiten. Die computergestützte Übersetzung etwa beruht teils auf so genannten Translation Memories, das sind Datenbanken, die Sätze und ihre Übersetzungen speichern. Wenn im Ausgangstext ein ähnlicher Satz mehrmals vorkommt, weist das System den Übersetzer darauf hin, und der entscheidet dann, ob und wie er die automatische Übersetzung verwenden möchte. Und die Entscheidung fließt wieder ins Translation Memory ein. Diese Systeme werden auch dazu verwendet, um die automatische Übersetzung zu unterstützen und mit möglichst vielen Daten zu versorgen. Wir sprechen in diesem Zusammenhang von Language Big Data. Je mehr Texte wir speichern, desto besser können die Computersysteme trainiert werden.

Welche Sprachen machen beim automatischen Übersetzen die größten Schwierigkeiten?

Grundsätzlich alle Sprachen, für die derzeit noch wenige Texte in elektronischer Form vorliegen oder für die spezifische Terminologien ungenügend aufbereitet sind. Am Beispiel der Europäischen Union sieht man das ganz gut. Die EU hat 24 Amtssprachen, darunter auch Sprachen wie das Maltesische oder das Irische, die von vergleichsweise wenigen Sprechern gesprochen werden. Es wird viel unternommen, um die Lage zu verbessern, aber im Vergleich zu großen Sprachen wie Englisch, Französisch oder Deutsch fehlt es an Textsammlungen und Fachwörterbüchern. Es gibt aber auch Länder wie zum Beispiel die baltischen Staaten, die sich ganz bewusst für ihre Sprachen einsetzen und viel Geld in Sprachtechnologien investieren.

Auch bestimmte strukturelle Eigenschaften machen es bei manchen Sprachen leichter, bei anderen schwerer, sie automatisch zu übersetzen. Finnisch und Ungarisch sind dafür gute Beispiele. Auch Übersetzungen aus dem Deutschen machen, obwohl es genügend Daten gibt, aufgrund des besonderen Satzbaus im Vergleich zu Englisch oder Französisch mehr Schwierigkeiten. Die Ergebnisse automatischer Übersetzungen sind im Sprachenpaar Englisch-Deutsch doch um einiges schlechter als etwa bei Englisch-Französisch.

Was unternimmt die Europäische Union in diesem Bereich?

Die EU investiert sehr viel. Die Sprachendienste der EU sind mit Tausenden Dolmetschern und Übersetzern schon jetzt die mit Abstand größten der Welt. Investitionen in Übersetzungs-Technologien machen durchaus Sinn. Mittlerweile wird die maschinelle Übersetzung auch nicht mehr als Bedrohung der Übersetzer-Arbeitsplätze gesehen, sondern als ein Arbeitswerkzeug unter vielen. In den Sprachdiensten der EU werden solche Tools gerade eingeführt. Niemand wird gezwungen, sie zu verwenden, aber es lässt sich damit Zeit sparen und die Effektivität erhöhen, und deshalb setzen sie sich langsam durch. Bei der UNO gibt es ähnliche Entwicklungen. Es gibt ja viele Texte, die aus Zeit- oder Personalmangel nicht übersetzt werden können. Die begründete Hoffnung ist, dass man mit Maschinenunterstützung mehr erledigen kann. Es gibt übrigens auch aus der Privatwirtschaft keine Hinweise, dass Übersetzer-Arbeitsplätze durch technologische Innovationen gefährdet wären - das Gegenteil ist der Fall. Diese Befürchtung ist auch in den nächsten zehn Jahren nicht realistisch.

Sind Computerlinguisten, die an der Schnittstelle zwischen Sprache und Maschine arbeiten, besonders gesuchte Fachkräfte?

Es gibt eigentlich immer zu wenige Computerlinguisten. Leute mit einer derartigen Qualifikation sind sehr gefragt. Sie werden in den verschiedensten Bereichen gebraucht, nicht nur für das automatische Übersetzen. Ich denke etwa an Spracherkennung oder andere einschlägige Anwendungsgebiete der Mobiltelefonie. Computerlinguistik klingt abstrakt, ist aber durchaus ein attraktiver Beruf.

Google hat das statistische Übersetzen populär gemacht. Der Suchmaschinen-Konzern verwendet neuronale Netze und trainiert sie mit Millionen von zweisprachigen Texten. Fühlt man sich als Sprachwissenschafter nicht entmachtet von diesen auf den ersten Blick abgehobenen mathematisch-statistischen Methoden, die nicht auf Sprachverständnis beruhen?

"Neural" klingt natürlich faszinierend, aber es geht um klassische Machine-Learning-Methoden, die mit der althergebrachten Sprachstatistik kombiniert werden. Die Sprachwissenschaft hat sich auch weiterentwickelt. In den fünfziger und sechziger und siebziger Jahren war etwa Noam Chomskys Generative Transformationsgrammatik in der Sprachtheorie vorherrschend. Und eigentlich war diese Theorie abgehoben, weil sie den konkreten Sprachgebrauch zu wenig berücksichtigte. Der Paradigmenwechsel bestand darin, dass man der aktuellen Sprachverwendung viel stärker Beachtung schenkte. In der maschinellen Übersetzung untersuchen wir diesen Sprachgebrauch auf der Basis großer Zahlen - mit Hilfe von Big Data. Damit ist das automatische Übersetzen doch deutlich besser geworden, weil individuelle Abweichungen im Sprachgebrauch und sich ständig wandelnde Sprachnormen berücksichtigt werden. Wittgenstein hat recht, wenn er sagt, dass die Bedeutung von Sprache durch ihren Gebrauch bestimmt wird. Die von ihnen zuvor erwähnten statistischen Methoden sind nichts anderes als der Versuch, diesen Sprachgebrauch im großen Stil zu untersuchen und die Ergebnisse beim automatischen Übersetzen anzuwenden.

Was sind dann die nächsten großen Herausforderungen auf diesem Feld?

Die Semantik, die Bedeutungsebene, bleibt nach wie vor die größte Herausforderung für die Computerlinguistik. Die Rückschlüsse auf die individuelle Bedeutung eines Ausdrucks macht dem menschlichen Gehirn so schnell kein Computer nach.

Sind Sprachen generell zu komplex für perfekte automatische Übersetzungen? Oder könnten es dolmetschende Computer eines Tages schaffen, eine ähnliche Perfektion zu entwickeln, wie wir sie vom Schach- oder Gospiel kennen?

Es ist durchaus zu erwarten, dass die Ergebnisse in diesem Bereich immer besser werden. Wir werden aber vergeblich auf ansprechende automatische Übersetzungen von Gedichten oder Prosa warten, zumindest dreißig oder vierzig Jahre lang. Bei gewissen Textsorten jedoch, die einfach strukturiert sind und wo es viele Daten gibt, wird man immer bessere Resultate erzielen. Es ist allerdings nach wie vor unvermeidlich, Texte aus automatischen Übersetzungen nachträglich zu redigieren. Bei Textsorten wie juristischen Verträgen wird man sich sogar vor automatischen Übersetzungen hüten, weil es auf jedes Wort ankommt. Es gibt aber durchaus unterschiedliche Informationsbedürfnisse. Wenn ich mich als Forscher über chinesische oder japanische Erkenntnisse in der Originalfassung informieren möchte, dann kann ich auch aus der Google-Translate-Übersetzung erfahren, worum es geht. Auch wenn mitunter der Satzbau abstrus wirkt und das eine oder andere Element keinen Sinn ergibt, kann ich mich zumindest im Groben orientieren. Und dann immer noch eine computergestützte Übersetzung bei einem Menschen in Auftrag geben.

Gerhard Budin ist Universitätsprofessor für Translatorische Terminologiewissenschaft und Übersetzungstechnologie am Zentrum für Translationswissenschaft an der Universität Wien, Leiter des Instituts für Corpuslinguistik und Texttechnologie (ICLTT) und korrespondierendes Mitglied der Österreichischen Akademie der Wissenschaften (ÖAW).

Werbung



Leserkommentare




Mit dem Absenden des Kommentars erkennen Sie unsere Online-Nutzungsbedingungen an.


captcha Absenden

* Pflichtfelder (E-Mail-Adresse wird nicht veröffentlicht)


Dokumenten Information
Copyright © Wiener Zeitung Online 2017
Dokument erstellt am 2017-02-24 16:41:41
Letzte nderung am 2017-02-26 14:33:36



Werbung




Werbung


Werbung