PAN 2010 - Detección de plagio
Campaña
Nombre de la campaña | ||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Nombre de la tarea |
Plagiarism detection |
|||||||||||||||||||
Tipo de tarea |
Evaluación de sistemas de clasificación automática: plagio vs. no plagio |
|||||||||||||||||||
Descripción de la tarea |
Dado un conjunto de documentos (en inglés) y unos documentos fuentes (en inglés, español y alemán), la tarea consiste en encontrar todos los fragmentos de textos que han sido plagiados y los correspondientes fragmentos en los documentos fuente. En la tarea se han considerado casos de detección externa de plagio así como intrínseca. |
|||||||||||||||||||
Categoría de la tarea |
Procesamiento del lenguaje natural, traducción automática (plagio monolingüe y translingüe) |
|||||||||||||||||||
Fecha evento / edición |
2010 - https://pan.webis.de/clef10/pan10-web/plagiarism-detection.html |
|||||||||||||||||||
Organizadores |
|
|||||||||||||||||||
Grupos destinatarios |
Abierto a quien quiera participar: han participado grupos de investigación académicos y de institutos de investigación, así como del detector de plagio Ferret. |
|||||||||||||||||||
Elegibilidad |
Cualquiera puede participar (grupos de investigación académicos, de la industria o investigadores individuales). Hay un control de calidad en los working notes presentados (peer review) |
|||||||||||||||||||
Calendario |
|
|||||||||||||||||||
Número de participantes |
18 equipos (~50 personas) |
|||||||||||||||||||
Número de participantes de España |
4 equipos (~12 personas) |
|||||||||||||||||||
Dominio |
El corpus está compuesto por 27.073 documentos y 68.558 casos de plagio (libros del proyecto Gutenberg). |
|||||||||||||||||||
Idiomas |
lnglés (documentos fuente en inglés, español y alemán) |
Datos
Datos de entrenamiento |
|
|||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Derecho de redistribución de datos |
Sólo para investigación |
|||||||||||||||||||
Enlace a datasets |
Resultados
Mejor resultado: 0.80Métrica de evaluación |
Plagdet: combinación entre precisión y recall (a nivel de caracteres) y granularidad. |
|||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Rendimiento |
Mejor resultado: 0.80 |
|||||||||||||||||||
Disponibilidad del código |
- |
|||||||||||||||||||
Tipo de ejecución |
Local |
|||||||||||||||||||
Número total de resultados enviados |
18 |
|||||||||||||||||||
Resultados |
Potthast M., Barrón-Cedeño A., Eiselt A., Stein B., Rosso P. Overview of the 2nd International Competition on Plagiarism Detection. In: Braschler M., Harman D., and Pianta E.(Eds.), Notebook Papers of CLEF 2010 LABs and Workshops, CLEF-2010, Padua, Italy, September 22-23 http://ceur-ws.org/Vol-1176/CLEF2010wn-PAN-PotthastEt2010a.pdf [PDF ] |
|||||||||||||||||||
Volumen de publicación |
vol. 1176, CEUR-WS.org |
|||||||||||||||||||
Gestión web de usuarios |
Sí |
|||||||||||||||||||
Atención a participantes |
Email: pan@webis.de Google Groups |