Traducción automática neuronal

De Wikipedia, la enciclopedia libre
Ir a la navegación Ir a la búsqueda

La traducción automática neuronal (NMT por sus siglas en inglés, neural machine translation) es un método de traducción automática que usa una red neuronal enorme. Se distancia de las traducciones estadísticas basadas en frases que usan subcomponentes diseñados por separado.[1]​ Los servicios de traducción de Google, Yandex y Microsoft actualmente utilizan NMT. Google utiliza Google Neural Machine Translation (GNMT) con preferencia sobre sus métodos estadísticos usados anteriormente.[2]​ Microsoft usa una tecnología similar para sus traductores de voz (incluido Microsoft Translator live y Skype Translator).[3]​ El grupo Harvard NLP ha lanzado un sistema de traducción automática neuronal de código abierto, OpenNMT.[4]

Los modelos de NMT utilizan el aprendizaje profundo y aprendizaje de representación. Requieren sólo una fracción de la memoria que necesitan los modelos tradicionales de traducción automática estadística (SMT por sus siglas en inglés, statistical machine translation). Es más, al contrario que otros sistemas convencionales de traducción, en el modelo de traducción neuronal se enseña a todas las partes conjuntamente (end-to-end) para maximizar la eficacia de la traducción.[5][6][7]

La red neuronal utiliza una red neuronal recurrente (RNN por sus siglas en inglés, recurrent neural network) bidireccional, también conocida como codificador, que codifica un segmento fuente para la segunda RNN, conocida también como codificador, que se usa para predecir palabras en la lengua meta.[8]

Traductores neuronales[editar]

Referencias[editar]

  1. Wołk, Krzysztof; Marasek, Krzysztof (2015). «Neural-based Machine Translation for Medical Text Domain. Based on European Medicines Agency Leaflet Texts». Procedia Computer Science 64 (64): 2-9. doi:10.1016/j.procs.2015.08.456. 
  2. Lewis-Kraus, Gideon (14 de diciembre de 2016). «The Great A.I. Awakening». The New York Times. Consultado el 21 de diciembre de 2016. 
  3. Microsoft Translator launching Neural Network based translations for all its speech languages; Translator.
  4. «OpenNMT - Open-Source Neural Machine Translation». opennmt.net (en inglés estadounidense). Consultado el 22 de marzo de 2017. 
  5. Kalchbrenner, Nal; Blunsom, Philip (2013). «Recurrent Continuous Translation Models». Proceedings of the Association for Computational Linguistics. 
  6. Sutskever, Ilya; Vinyals, Oriol; Le, Quoc Viet (2014). «Sequence to sequence learning with neural networks». NIPS. 
  7. Kyunghyun Cho; Bart van Merrienboer; Dzmitry Bahdanau; Yoshua Bengio (3 de septiembre de 2014). «On the Properties of Neural Machine Translation: Encoder–Decoder Approaches». arXiv:1409.1259  [cs.CL]. 
  8. Dzmitry Bahdanau; Cho Kyunghyun; Yoshua Bengio (2014). «Neural Machine Translation by Jointly Learning to Align and Translate». arXiv:1409.0473  [cs.CL].