|
Nombre de la campaña |
|
|
Nombre de la tarea |
Task 10: Multilingual Semantic Textual Similarity |
|
Tipo de tarea |
Similitud textual |
|
Descripción de la tarea |
Evaluar pares de oraciones según su grado de similitud semántica. |
|
Categoría de la tarea |
Procesamiento del lenguaje natural. |
|
Fecha evento / edición |
|
|
Organizadores |
|
|
Grupos destinatarios |
Abierto a quien quiera participar: grupos de investigación académicos y de la industria. |
|
Elegibilidad |
Cualquiera puede participar (grupos de investigación académicos, de la industria o investigadores individuales). |
|
Calendario |
|
|
Número de participantes |
9
|
|
Número de participantes de España |
1 |
|
Dominio |
Wikipedia y Noticias |
|
Idiomas |
Español e inglés |
Nombre de la campaña
Nombre de la tarea
Task 10: Multilingual Semantic Textual Similarity
Tipo de tarea
Similitud textual
Descripción de la tarea
Evaluar pares de oraciones según su grado de similitud semántica.
Categoría de la tarea
Procesamiento del lenguaje natural.
Fecha evento / edición
Organizadores
Grupos destinatarios
Abierto a quien quiera participar: grupos de investigación académicos y de la industria.
Elegibilidad
Cualquiera puede participar (grupos de investigación académicos, de la industria o investigadores individuales).
Calendario
Número de participantes
Número de participantes de España
1
Dominio
Wikipedia y Noticias
Idiomas
Español e inglés
|
Datos de entrenamiento |
Distribuido como CSV.
|
|
Derecho de redistribución de datos |
Sólo para investigación |
|
Enlace a datasets |
Datos de entrenamiento
Derecho de redistribución de datos
Sólo para investigación
Enlace a datasets
|
Métrica de evaluación |
Correlación de Pearson con etiquetas de referencia. |
|
Rendimiento |
El rango final es el promedio entre los dos conjuntos de datos: 80.7% |
|
Disponibilidad del código |
No |
|
Tipo de ejecución |
Local |
|
Número total de resultados enviados |
48 |
|
Resultados con los rankings |
Eneko Agirre, Carmen Banea, Claire Cardie, Daniel Cer; Mona Diab, Aitor Gonzalez-Agirre, Weiwei Guo, Rada Mihalcea, German Rigau, Janyce Wieb. Task 10: Multilingual Semantic Textual Similarity. Proceedings of the 8th International Workshop on Semantic Evaluation (SemEval 2014), August 2014, pp. 81-91. http://aclweb.org/anthology/S/S07/S07-1008.pdfhttp://aclweb.org/anthology/S/S14/S14-2010.pdf |
|
Volumen de publicación |
Proceedings of the 8th International Workshop on Semantic Evaluation. |
|
Gestión web de usuarios |
Sí |
|
Atención a participantes |
|
Métrica de evaluación
Correlación de Pearson con etiquetas de referencia.
Rendimiento
El rango final es el promedio entre los dos conjuntos de datos: 80.7%
Disponibilidad del código
No
Tipo de ejecución
Local
Número total de resultados enviados
48
Resultados con los rankings
Eneko Agirre, Carmen Banea, Claire Cardie, Daniel Cer; Mona Diab, Aitor Gonzalez-Agirre, Weiwei Guo, Rada Mihalcea, German Rigau, Janyce Wieb. Task 10: Multilingual Semantic Textual Similarity. Proceedings of the 8th International Workshop on Semantic Evaluation (SemEval 2014), August 2014, pp. 81-91.
http://aclweb.org/anthology/S/S07/S07-1008.pdfhttp://aclweb.org/anthology/S/S14/S14-2010.pdf
Volumen de publicación
Proceedings of the 8th International Workshop on Semantic Evaluation.
Gestión web de usuarios
Sí
Atención a participantes
Este sitio web utiliza cookies propias y de tercreos para ofrecer un mejor servicio. Si continúa naveando consideramos que acepta su uso.