Ir al contenido

Documat


Traducción automática neuronal

  • Casacuberta Nolla, Francisco [1] ; Peris Abril, Álvaro
    1. [1] Universidad Politécnica de Valencia

      Universidad Politécnica de Valencia

      Valencia, España

  • Localización: Revista tradumàtica: traducció i tecnologies de la informació i la comunicació, ISSN-e 1578-7559, Nº. 15, 2017 (Ejemplar dedicado a: Traducció automàtica: estat de la qüestió), págs. 66-74
  • Idioma: español
  • DOI: 10.5565/rev/tradumatica.203
  • Títulos paralelos:
    • Neural Machine Translation
    • Traducció automàtica neuronal
  • Enlaces
  • Resumen
    • español

      La traducción automática estuvo dominada desde el principio por los sistemas basados en el conocimiento lingüístico, posteriormente se abrieron paso otras aproximaciones, tales como las memorias de traducción y los sistemas estadísticos de traducción, que extraían el conocimiento de corpus paralelos. Recientemente, los modelos neuronales constituyen el estado de vanguardia de la traducción automática. Numerosas empresas de traducción y conocidas páginas web están utilizando estas tecnologías con éxito.Un modelo neuronal es un tipo de modelo estadístico formado por un conjunto de unidades de proceso simple densamente conectadas entre si. Los parámetros de estos modelos se estiman a partir de corpus paralelos gracias a eficientes algoritmos de aprendizaje automático y a potentes procesadores gráficos.  La aplicación de los modelos neuronales a la traducción automática obliga a que las palabras se representen en forma de vectores y que para procesar frases se utilicen redes neuronales recurrentes. 

    • English

      From the outset, automatic translation was dominated by systems based on linguistic information, but then later other approaches opened up the way, such as translation memories and statistical machine translation which draw on parallel language corpora. Recently the neuronal machine translation (NMT) models have become the cutting edge in automatic translation and many translation agencies and well-known web pages are successfully using these technologies. One NMT model is a kind of statistical model comprising a group of simple deeply interconnected process units. The parameters of these models are estimated from parallel corpora using efficient automatic learning algorithms and powerful graphic processors. Applying these neural models to automatic translation requires words to be represented in the form of vectors and use recurrent neural networks in order to process phrases.

    • català

      La traducció automàtica va estar dominada des del començament pels sistemes basats en el coneixement lingüístic, posteriorment es van obrir pas altres aproximacions, tals com les memòries de traducció i els sistemes estadístics de traducció, que extreien el coneixement de corpus paral·lels. Recentment, els models neuronals constitueixen l’estat de vanguarda de la traducció automàtica. Nombroses empreses de traducció i conegudes pàgines web estan fent servir aquestes tecnologies amb èxit. Un model neuronal és un tipus de model estadístic format per un conjunt d’unitats de procés simple densament connectades entre elles. Els paràmetres d’aquests models s’estimen a partir de corpus paral·lels gràcies a algoritmes d’aprenentatge automàtic eficients i a processadors gràfics potents. L’aplicació dels models neuronals a la traducció automàtica obliga a què les paraules es representen en forma de vectors i que per tal de processar frases s’utilitzen xarxes neuronals recurrents. 

  • Referencias bibliográficas
    • Abadi, M. [et al.] (2016). Tensorflow: Large-scale machine learning on heterogeneous distribut ed systems. Cornell University Library. . [Consulta:...
    • Antol, S. [et al.] (2015). “VQA: Visual question answering”. En: Balasubramanian, R. [et al.]. (eds.). Proceedings of the International Conference...
    • Barrachina, S. [et al.] (2009). “Statistical approaches to computerassisted translation,” Computational Linguistics, v. 35, n. 1 (March),...
    • Bansal, S.; Kamper, H.; Lopez, A.; Goldwater, S. (2017). “Towards speech-to-text translation without speech recognition”. Proceedings of the...
    • Bengio, Y.; Ducharme, R.; Vincent, P.; Janvin, C. (2003). “A neural probabilistic language model”. Journal of Machine Learning Research, v....
    • Bishop, C. M. (2006). Pattern recognition and machine learning. New York: Springer. (Information science and statistics).
    • Casacuberta, F. [et al.] (2008). “Human interaction for high quality machine translation”. Communications of the ACM, v. 52, n. 10, p. 135–138....
    • Castaño, M. A.; Casacuberta, F. (1997). “A connectionist approach to machine translation”. En: Proceedings of the Seventh International Conference...
    • Caglayan, O.; Barrault, L.; Bougares, F. (2016). Multimodal attention for neural machine translation. Cornell University Library. . [Consulta:...
    • Cettolo, M. [et al.] (2013). “Issues in incremental adaptation of statistical mt from human post-edits”. En: Proceedings of MT Summit XIV...
    • Cho, K. [et al.] (2014). “Learning phrase representations using RNN encoder–decoder for statistical machine translation”. En: Proceedings...
    • Crego, J. [et al.] (2016). SYSTRAN’s: pure neural machine translation systems. Cornell University Library. . [Consulta: 17 de mayo de 2017]
    • Elman, J. L. (1990). “Finding structure in time”. Cognitive Science, v. 14, n. 2, p. 179– 211. . [Consulta: 18 de octubre de 2017].
    • Hochreiter, S.; Schmidhuber, J. (1997). “Long short-term memory”. Neural Computation, v. 9, n. 8, p. 1735–1780. . [Consulta: 18 de octubre...
    • Jordan, M. I. (1990). “Attractor Dynamics and Parallelism in a Connectionist Sequential Machine”. En: Diederich, J. (ed.). Artificial neural...
    • Kalchbrenner, N.; Blunsom, P. (2013). “Recurrent continuous translation models”. En: Proceedings of the Conference on Empirical Methods in...
    • Koehn, P. (2009). Statistical Machine Translation. Cambridge [etc.]: Cambridge University Press.
    • Koehn, P. (2017). “Statistical Machine Translation”. [Draft of chapter 13] Neural Machine Translation. . [Consulta: 18 de octubre de 2017].
    • Lagoudaki, E. (2006). Translation memory systems: Enlightening users’ perspective. Imperial College London.
    • Peris, A.; Domingo, M.; Casacuberta, F. (2017). “Interactive neural machine translation”. Computer Speech and Language, v. 45 (September),...
    • Peris, A.; Cebria´n, L.; Casacuberta, F. (2017). Online learning for neural machine translation post-editing. Cornell University Library....
    • Rumelhart, D. E.; Hinton, G. E.; Williams, R. J. (1986). “Learning Internal Representations by Error Propagation”. En: Rumelhart, D. E.; McClelland,...
    • Sennrich, R.; Birch, A.; Junczys-Dowmunt, M. (2016). Advances in neural machine translation. [Slides to] The Twelfth Conference of The Association...
    • Sutskever, I.; Vinyals, O.; Le, V. (2014). “Sequence to sequence learning with neural networks”. En: [Electronic Proceedings of] Advances...
    • Schuster, M.; Paliwal, K. K. (1997). “Bidirectional recurrent neural networks”. IEEE Transactions on Signal Processing, v. 45, n. 11 (November),...
    • Theano Development Team. Theano: A Python framework for fast computation of mathematical expressions. Cornell University Library. . [Consulta:...
    • Wu, Y. [et al.] (2016). Google’s Neural Machine Translation System: Bridging the Gap between Human and Machine Translation. Cornell University...
    • Xu, K. [et al.]. (2015). Show, attend and tell: Neural image caption generation with visual attention. Cornell University Library. .
    • Yao, L. [et al.]. (2015). Describing videos by exploiting temporal structure. Cornell University Library. . [Consulta: 22 de octubre de 2017].

Fundación Dialnet

Mi Documat

Opciones de artículo

Opciones de compartir

Opciones de entorno