|
Nombre de la campaña |
|
|
Nombre de la tarea |
Humor Analysis based on Human Annotation (HAHA) |
|
Tipo de tarea |
|
|
Descripción de la tarea |
Algunos de los tweets contienen bromas y hay que predecir el valor de su puntuación. |
|
Categoría de la tarea |
Procesamiento del lenguaje natural |
|
Fecha evento / edición |
|
|
Organizadores |
|
|
Grupos destinatarios |
Abierto a quien quiera participar: grupos de investigación académicos y de la industria. |
|
Elegibilidad |
Cualquiera puede participar (grupos de investigación académicos, de la industria o investigadores individuales). Hay un control de calidad en los working notes presentados (peer review) |
|
Calendario |
|
|
Número de participantes |
3 |
|
Número de participantes de España |
4 investigadores en 2 equipos |
|
Dominio |
Twitter (tweets genéricos) |
|
Idiomas |
Español |
Nombre de la campaña
Nombre de la tarea
Humor Analysis based on Human Annotation (HAHA)
Tipo de tarea
Descripción de la tarea
Algunos de los tweets contienen bromas y hay que predecir el valor de su puntuación.
Categoría de la tarea
Procesamiento del lenguaje natural
Fecha evento / edición
Organizadores
Grupos destinatarios
Abierto a quien quiera participar: grupos de investigación académicos y de la industria.
Elegibilidad
Cualquiera puede participar (grupos de investigación académicos, de la industria o investigadores individuales). Hay un control de calidad en los working notes presentados (peer review)
Calendario
Número de participantes
3
Número de participantes de España
4 investigadores en 2 equipos
Dominio
Twitter (tweets genéricos)
Idiomas
Español
|
Datos de entrenamiento |
Distribuido como CSV |
|
Derecho de redistribución de datos |
Sólo para investigación |
|
Enlace a datasets |
Datos de entrenamiento
Distribuido como CSV
Derecho de redistribución de datos
Sólo para investigación
Enlace a datasets
|
Métrica de evaluación |
|
|
Rendimiento |
|
|
Disponibilidad del código |
No |
|
Tipo de ejecución |
Local |
|
Número total de resultados enviados |
9 |
|
Resultados con los rankings |
Santiago Castro, Luis Chiruzzo, Aiala Rosá. Overview of the HAHA Task: Humor Analysis Based on Human Annotation at IberEval 2018. Proceedings of the Third Workshop on Evaluation of Human Language Technologies for Iberian Languages (IberEval 2018). Paolo Rosso, Julio Gonzalo, Raquel Martínez, Soto Montalvo, Jorge Carrillo-de-Albornoz (Eds), Vol.2150, ceur-ws.org, pp.187-194, co-located with 34th Conference of the Spanish Society for Natural Language Processing (SEPLN 2018), Sevilla, Spain, September 18th, 2018. |
|
Volumen de publicación |
Vol. 2150, ceur-ws.org |
|
Gestión web de usuarios |
Sí |
|
Atención a participantes |
|
Métrica de evaluación
Rendimiento
Disponibilidad del código
No
Tipo de ejecución
Local
Número total de resultados enviados
9
Resultados con los rankings
Santiago Castro, Luis Chiruzzo, Aiala Rosá. Overview of the HAHA Task: Humor Analysis Based on Human Annotation at IberEval 2018. Proceedings of the Third Workshop on Evaluation of Human Language Technologies for Iberian Languages (IberEval 2018). Paolo Rosso, Julio Gonzalo, Raquel Martínez, Soto Montalvo, Jorge Carrillo-de-Albornoz (Eds), Vol.2150, ceur-ws.org, pp.187-194, co-located with 34th Conference of the Spanish Society for Natural Language Processing (SEPLN 2018), Sevilla, Spain, September 18th, 2018.
Volumen de publicación
Vol. 2150, ceur-ws.org
Gestión web de usuarios
Sí
Atención a participantes
Este sitio web utiliza cookies propias y de tercreos para ofrecer un mejor servicio. Si continúa naveando consideramos que acepta su uso.