Reseña: Translation Quality Assessment: From Principles to Practice

Contenido principal del artículo

Rocío Caro Quintana

Resumen

Con el desarrollo de los contenidos digitales y las consecuencias de la globalización, cada día se publican más contenidos y es necesario traducirlos para que sean accesibles a las personas de todo el mundo. Este proceso es muy sencillo y directo gracias a la implementación de la Traducción Automática (MT por sus siglas en inglés), que es el proceso de traducir textos automáticamente con un software computacional en unos pocos segundos. Sin embargo, hay que comprobar la calidad de los textos para hacerlos comprensibles, ya que la calidad de la MT todavía dista mucho para ser perfecta. Translation Quality Assessment: From Principles to Practice, editado por Joss Moorkens, Sheila Castilho, Federico Gaspari y Stephen Doherty (2018), trata de las diferentes formas (automáticas y manuales) con las que se pueden evaluar estas traducciones. El volumen explora cómo ha cambiado el campo de la traducción a lo largo de las décadas (desde 1978 hasta 2018), los diferentes métodos que se pueden aplicar y algunas consideraciones para futuras aplicaciones de evaluación de la calidad de las traducciones.

Descargas

Los datos de descargas todavía no están disponibles.

Detalles del artículo

Cómo citar
Caro Quintana, R. (2020). Reseña: Translation Quality Assessment: From Principles to Practice. Language Value, 13(1), 110–115. https://doi.org/10.6035/LanguageV.2020.13.6
Sección
Reseñas de libros y multimedia

Citas

Banerjee, S., & Lavie, A. 2005. METEOR: An automatic metric for MT evaluation with improved correlation with human judgments. In Proceedings of the ACL workshop on intrinsic and extrinsic evaluation measures for machine translation and/or summarization (pp. 65-72).

Castilho, S., Moorkens, J., Gaspari, F., Calixto, I., Tinsley, J., & Way, A. 2017. Is neural machine translation the new state of the art?. The Prague Bulletin of Mathematical Linguistics, 108(1), 109-120.

Nießen S, Och FJ, Leusch G, Ney H. 2000. An evaluation tool for machine translation: fast evaluation for MT research. In: Proceedings of the second international conference on language resources and evaluation, Athens, 31 May–2 June 2000, pp 39–45

Papineni, Kishore, Roukos Salim, Ward Todd, and Zhu Wei-Jing. 2002. BLEU: a method for automatic evaluation of machine translation. In Proceedings of the 40th annual meeting on association for computational linguistics, Association for Computational Linguistics, Philadelphia, 311-318.

Romero-Fresco P, Pérez JM. 2015. Accuracy rate in live subtitling: the NER model. In: Díaz Cintas J, Baños Piñero R (eds) Audiovisual translation in a global context. Palgrave Macmillan, London, pp 28–50

Snover, Matthew, Bonnie Dorr, Schwartz Richard, Linnea Micciulla, and John Makhoul. 2006. A study of translation edit rate with targeted human annotation. In Proceedings of the 7th Conference of the Association for Machine Translation in the Americas, The Association for Machine Translation in the Americas, Cambridge, 223-231.