Semseval 2017 -Semantic Textual Similarity
Campaña
| Nombre de la campaña |
SemEval-2017: 11th International Workshop on Semantic Evaluation |
|||||||||||||||||||
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| Nombre de la tarea |
Task 1: Semantic Textual Similarity |
|||||||||||||||||||
| Tipo de tarea |
Tareas de similityd textual con dos tracks:
|
|||||||||||||||||||
| tarea |
Evaluar pares de oraciones de acuerdo con su grado de similitud semántica. |
|||||||||||||||||||
| Categoría de la tarea |
Procesamiento del lenguaje natural, traducción automática |
|||||||||||||||||||
| Fecha evento / edición | ||||||||||||||||||||
| Organizadores |
|
|||||||||||||||||||
| Grupos destinatarios |
Abierto a quien quiera participar: grupos de investigación académicos y de la industria. Han participado: Compilatio (Francia), Hitachi (Japón), MITRE Corporation (EE.UU.), y National Information Processing Institute (Polonia). |
|||||||||||||||||||
| Elegibilidad |
Cualquiera puede participar (grupos de investigación académicos, de la industria o investigadores individuales). |
|||||||||||||||||||
| Calendario |
|
|||||||||||||||||||
| Número de participantes |
53 equipos |
|||||||||||||||||||
| Número de participantes de España |
0 |
|||||||||||||||||||
| Dominio | Stanford Natural Language Inference (SNLI) corpus: originalmente, leyendas de imagen | |||||||||||||||||||
| Idiomas |
Español, inglés, árabe y turco.. |
|||||||||||||||||||
Datos
| Datos de entrenamiento |
Distribuido como CSV. |
|||||||||||||||||||
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| Derecho de redistribución de datos |
Sólo para investigación |
|||||||||||||||||||
| Enlace a datasets | ||||||||||||||||||||
Resultados
| Métrica de evaluación |
Pearson correlation con gold labels |
|||||||||||||||||||
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| Rendimiento |
|
|||||||||||||||||||
| Disponibilidad del código |
No |
|||||||||||||||||||
| Tipo de ejecución |
Local |
|||||||||||||||||||
| Número total de resultados enviados |
84 |
|||||||||||||||||||
| Resultados con los rankings |
Daniel Cer, Mona Diab, Eneko Agirre, Inigo Lopez-Gazpio, and Lucia Specia. SemEval-2017 Task 1: Semantic Textual Similarity Multilingual and Cross-lingual Focused Evaluation. Proceedings of the 11th International Workshop on Semantic Evaluation (SemEval-2017). August 2017, pp. 1-14. |
|||||||||||||||||||
| Volumen de publicación |
Proceedings of the 11th International Workshop on Semantic Evaluations (SemEval-2017). Association for Computational Linguistics. |
|||||||||||||||||||
| Gestión web de usuarios |
Sí |
|||||||||||||||||||
| Atención a participantes |
|
|||||||||||||||||||

