|
Nombre de la campaña |
|
|
Nombre de la tarea |
Task 1: Semantic Textual Similarity |
|
Tipo de tarea |
Tareas de similityd textual con dos tracks:
|
|
Descripción de la tarea |
Evaluar pares de oraciones de acuerdo con su grado de similitud semántica. |
|
Categoría de la tarea |
Procesamiento del lenguaje natural, traducción automática |
|
Fecha evento / edición |
|
|
Organizadores |
|
|
Grupos destinatarios |
Abierto a quien quiera participar: grupos de investigación académicos y de la industria. Han participado: Compilatio (Francia), Hitachi (Japón), MITRE Corporation (EE.UU.), y National Information Processing Institute (Polonia). |
|
Elegibilidad |
Cualquiera puede participar (grupos de investigación académicos, de la industria o investigadores individuales). |
|
Calendario |
|
|
Número de participantes |
53 equipos |
|
Número de participantes de España |
0 |
|
Dominio |
Stanford Natural Language Inference (SNLI) corpus: originalmente, leyendas de imagen |
|
Idiomas |
Español, inglés, árabe y turco. |
Nombre de la campaña
Nombre de la tarea
Task 1: Semantic Textual Similarity
Tipo de tarea
Tareas de similityd textual con dos tracks:
Descripción de la tarea
Evaluar pares de oraciones de acuerdo con su grado de similitud semántica.
Categoría de la tarea
Procesamiento del lenguaje natural, traducción automática
Fecha evento / edición
Organizadores
Grupos destinatarios
Abierto a quien quiera participar: grupos de investigación académicos y de la industria. Han participado: Compilatio (Francia), Hitachi (Japón), MITRE Corporation (EE.UU.), y National Information Processing Institute (Polonia).
Elegibilidad
Cualquiera puede participar (grupos de investigación académicos, de la industria o investigadores individuales).
Calendario
Número de participantes
53 equipos
Número de participantes de España
0
Dominio
Stanford Natural Language Inference (SNLI) corpus: originalmente, leyendas de imagen
Idiomas
Español, inglés, árabe y turco.
|
Datos de entrenamiento |
Distribuido como CSV.
|
|
Derecho de redistribución de datos |
Sólo para investigación |
|
Enlace a datasets |
Datos de entrenamiento
Derecho de redistribución de datos
Sólo para investigación
Enlace a datasets
|
Métrica de evaluación |
Pearson correlation con gold labels |
|
Rendimiento |
|
|
Disponibilidad del código |
No |
|
Tipo de ejecución |
Local |
|
Número total de resultados enviados |
84 |
|
Resultados con los rankings |
Daniel Cer, Mona Diab, Eneko Agirre, Inigo Lopez-Gazpio, and Lucia Specia. SemEval-2017 Task 1: Semantic Textual Similarity Multilingual and Cross-lingual Focused Evaluation. Proceedings of the 11th International Workshop on Semantic Evaluation (SemEval-2017). August 2017, pp. 1-14. |
|
Volumen de publicación |
Proceedings of the 11th International Workshop on Semantic Evaluations (SemEval-2017). Association for Computational Linguistics. |
|
Gestión web de usuarios |
Sí |
|
Atención a participantes |
|
Métrica de evaluación
Pearson correlation con gold labels
Rendimiento
Disponibilidad del código
No
Tipo de ejecución
Local
Número total de resultados enviados
84
Resultados con los rankings
Daniel Cer, Mona Diab, Eneko Agirre, Inigo Lopez-Gazpio, and Lucia Specia. SemEval-2017 Task 1: Semantic Textual Similarity Multilingual and Cross-lingual Focused Evaluation. Proceedings of the 11th International Workshop on Semantic Evaluation (SemEval-2017). August 2017, pp. 1-14.
Volumen de publicación
Proceedings of the 11th International Workshop on Semantic Evaluations (SemEval-2017). Association for Computational Linguistics.
Gestión web de usuarios
Sí
Atención a participantes
Este sitio web utiliza cookies propias y de tercreos para ofrecer un mejor servicio. Si continúa naveando consideramos que acepta su uso.