/ OSS / Machine Learning: Facebook übersetzt schneller und besser als Google

Machine Learning: Facebook übersetzt schneller und besser als Google

127742-139581-i_rc.jpg
Gerfried Steube on May 11, 2017 - 7:19 am in OSS

Wegen der vielen Kniffe und Eigenheiten natürlicher Sprache sind maschinelle Übersetzungen teilweise sehr schlecht. Im vergangenen Herbst hat Google schließlich ein neues Modell zur Übersetzung vorgestellt, das so gut war, dass Google dieses direkt in seine Webdienste integriert hat. Auch Facebook ist sehr stark an derartigen Systemen interessiert und stellt nun ein Modell vor, das jenes von Google in den zwei entscheidenden Punkten Qualität und Geschwindigkeit schlägt.

Googles Neural Machine Translation (GNMT) nutzt zur Übersetzung ein rekurrentes neuronales Netz (RNN), das sehr häufig für Sprach- und Textaufgaben genutzt wird. Das neue System von Facebook basiert hingegen auf einem sogenannten Convolutional Neural Network (CNN), das besonders oft in der Bilderkennung genutzt wird. Diese Entscheidung hat einen inhärenten technischen Vorteil für Facebook.

Besser und schneller dank Parallelisierung

Denn die Umsetzung eines CNN lässt sich extrem gut parallelisieren und damit sehr schnell auf GPUs ausführen. RNNs hingegen modellieren ein Art Rückkanal, um auf bereits verarbeitete Informationen zurückzugreifen. Letzteres macht diese zwar langsamer, sorgte bisher aber für einen teils sehr deutlichen Qualitätsvorteil bei der Sprachverarbeitung und eben auch der Übersetzung, was Facebook nun aber offenbar durchbrochen hat.

Das ergibt sich zumindest aus Daten, die das Unternehmen als Teil seiner Forschungsarbeit veröffentlicht hat. Demnach schneidet das Modell in standardisierten Übersetzungstests für die Sprachpaare Englisch-Französisch, Englisch-Deutsch und Englisch-Rumänisch nach formalen Bewertungskriterien leicht besser ab als GNMT oder andere RNNs.

Pragmatismus bei Facebook, interessante Tricks bei Google

Aus rein praktischen Erwägungen heraus gibt sich Facebook zudem sehr überzeugt von seinem Modell. Denn bei ungefähr gleicher Qualität, wie sie sehr gute RNNs aufweisen, benötige das CNN von Facebook in der Trainingsphase halb so viel GPU-Rechenzeit wie GNMT. Die Inference-Phase von Facebooks CNN, also hier das Übersetzen eines unbekannten Satzes mit Hilfe des trainierten Modells, sei bei einer Betrachtung der verfügbaren CPU-Kerne sogar 17-mal so schnell wie GNMT.

Facebook folgert daraus, dass sein System wohl viel besser über sehr viele Sprachen skalieren werde als bisherige Ansätze mit RNNs. Das gelte insbesondere deshalb, weil Geschwindigkeitsoptimierungen für CNNs in dem aktuellen System von Facebook kaum vorgenommen worden seien. Zusätzlich dazu sei vor allem das Verständnis der komplexen Abhängigkeiten der Modelldaten in einem CNN wesentlich einfacher nachzuvollziehen als bei einem RNN.

Google löst das Geschwindigkeitsproblem seines GNMT vor allem durch die Anwendung seines selbst entwickelten Chips, dem sogenannten TPU, der allein für die Verwendung mit neuronalen Netzen entwickelt wurde. Darüber hinaus vermeidet Google das Skalierungsproblem für die Übersetzung sehr vieler Sprachpaare durch sogenannte “Zero-Shot”-Übersetzungen. Hierbei wird das GNMT so modifiziert, dass auch Übersetzungen mit Hilfe bereits bestehender anderer Sprachpaare erzeugt werden können.

Facebook stellt den Code seiner Arbeiten sowie bereits trainierte Modelle auf Github unter einer BSD-Lizenz frei zur Verfügung.

Read more on: Source

Comments are disabled