|
Nombre de la campaña |
|
|
Nombre de la tarea |
Quality Estimation Automatic Post-Editing |
|
Tipo de tarea |
Ranking de traducciones, corrección de errores. |
|
Descripción de la tarea |
Quality estimation evalúa métodos automáticos para estimar la calidad de salida de la traducción automática en tiempo de ejecución. La estimación de la calidad es un tema de creciente interés en MT. Su objetivo es proporcionar un indicador de calidad para oraciones desconocidas traducidas en varios niveles de granularidad: a nivel de oraciones y de palabras. Automatic Post-Editing evalúa los métodos automáticos para corregir los errores producidos por un sistema de traducción automática. Dado que el sistema en sí mismo es una "caja negra", los métodos automáticos de edición posterior tienen que operar a nivel descendente (es decir, después de la traducción automática), mediante la explotación del conocimiento adquirido de las ediciones anteriores y se proporciona como material de entrenamiento. |
|
Categoría de la tarea |
Traducción Automática |
|
Fecha evento / edición |
2015 |
|
Organizadores |
|
|
Grupos destinatarios |
Abierto a quien quiera participar: grupos de investigación académicos y de la industria. |
|
Elegibilidad |
Cualquiera puede participar (grupos de investigación académicos, de la industria o investigadores individuales). |
|
Calendario |
|
|
Número de participantes |
16 |
|
Número de participantes de España |
1 |
|
Dominio |
Parlamento Europeo, Naciones Unidas, noticias y relatos |
|
Idiomas |
Español y otros idiomas |
Nombre de la campaña
Nombre de la tarea
Quality Estimation
Automatic Post-Editing
Tipo de tarea
Ranking de traducciones, corrección de errores.
Descripción de la tarea
Quality estimation evalúa métodos automáticos para estimar la calidad de salida de la traducción automática en tiempo de ejecución. La estimación de la calidad es un tema de creciente interés en MT. Su objetivo es proporcionar un indicador de calidad para oraciones desconocidas traducidas en varios niveles de granularidad: a nivel de oraciones y de palabras.
Automatic Post-Editing evalúa los métodos automáticos para corregir los errores producidos por un sistema de traducción automática. Dado que el sistema en sí mismo es una "caja negra", los métodos automáticos de edición posterior tienen que operar a nivel descendente (es decir, después de la traducción automática), mediante la explotación del conocimiento adquirido de las ediciones anteriores y se proporciona como material de entrenamiento.
Categoría de la tarea
Traducción Automática
Fecha evento / edición
2015
Organizadores
Grupos destinatarios
Abierto a quien quiera participar: grupos de investigación académicos y de la industria.
Elegibilidad
Cualquiera puede participar (grupos de investigación académicos, de la industria o investigadores individuales).
Calendario
Número de participantes
16
Número de participantes de España
1
Dominio
Parlamento Europeo, Naciones Unidas, noticias y relatos
Idiomas
Español y otros idiomas
|
Datos de entrenamiento |
Distribuido como CSV |
|
Derecho de redistribución de datos |
Sólo para investigación |
|
Enlace a datasets |
Datos de entrenamiento
Distribuido como CSV
Derecho de redistribución de datos
Sólo para investigación
Enlace a datasets
|
Métrica de evaluación |
QE: DeltaAvg, Error de Promedio Medio (MAE) y sequence correlation. Post-editing: Distancia mínima de edición (TER) entre la traducción automática y su versión editada posteriormente de forma manual. |
|
Rendimiento |
|
|
Disponibilidad del código |
Evaluación |
|
Tipo de ejecución |
Local |
|
Número total de resultados enviados |
50+ |
|
Resultados con los rankings |
Ondrej Bojar, Rajen Chatterjee, Christian Federmann, Barry Haddow, Matthias Huck, Chris Hokamp, Philipp Koehn, Varvara Logacheva, Christof Monz, Matteo Negri, Matt Post, Carolina Scarton, Lucia Specia, Marco Turchi. Findings of the 2015 Workshop on Statistical Machine Translation. Proceedings of the Tenth Workshop on Statistical Machine Translation, pp. 1–46, Co-located with EMNLP, Lisboa, Portugal, 17-18 September 2015. |
|
Volumen de publicación |
Proceedings of the 10th ACL Workshop on Statistical Machine Translation. Association for Computational Linguistics. |
|
Gestión web de usuarios |
Sí |
|
Atención a participantes |
|
Métrica de evaluación
QE: DeltaAvg, Error de Promedio Medio (MAE) y sequence correlation.
Post-editing: Distancia mínima de edición (TER) entre la traducción automática y su versión editada posteriormente de forma manual.
Rendimiento
Disponibilidad del código
Evaluación
Participantes: no
Tipo de ejecución
Local
Número total de resultados enviados
50+
Resultados con los rankings
Ondrej Bojar, Rajen Chatterjee, Christian Federmann, Barry Haddow, Matthias Huck, Chris Hokamp, Philipp Koehn, Varvara Logacheva, Christof Monz, Matteo Negri, Matt Post, Carolina Scarton, Lucia Specia, Marco Turchi. Findings of the 2015 Workshop on Statistical Machine Translation. Proceedings of the Tenth Workshop on Statistical Machine Translation, pp. 1–46, Co-located with EMNLP, Lisboa, Portugal, 17-18 September 2015.
Volumen de publicación
Proceedings of the 10th ACL Workshop on Statistical Machine Translation. Association for Computational Linguistics.
Gestión web de usuarios
Sí
Atención a participantes
Este sitio web utiliza cookies propias y de tercreos para ofrecer un mejor servicio. Si continúa naveando consideramos que acepta su uso.