El discurso de odio es un fenómeno social peligroso, porque genera la profundización y arraigo de prejuicios y estereotipos. En algunos casos, esos prejuicios llegan a instigar y justificar actos violentos.
Las plataformas sociales han amplificado el alcance del discurso de odio, contribuyendo a un aumento de la crispación y la intolerancia. Para contener estos efectos perniciosos, la estrategia predominante es el reconocimiento, bloqueo y eliminación del mensaje y/o usuarios que lo haya generado.
Sin embargo, esta estrategia tiene desventajas: por un lado, el bloqueo puede prevenir que un mensaje de odio se esparza, pero no contrarresta las consecuencias que tiene en aquellos a quienes ya ha alcanzado. En segundo lugar, el bloqueo no deja lugar a grises en la clasificación del mensaje, la cual debe ser binaria porque la consecuencia de esa clasificación es binaria. Esto puede generar acusaciones de censura, y no solo por errores en los sistemas automáticos, sino porque una clasificación binaria muchas veces no logra abarcar la complejidad inherente del discurso de odio. Efectivamente, el bloqueo de discursos de odio entra en conflicto directo con el derecho a la libertad de expresión. Además, los métodos disponibles para la detección y clasificación se basan en características superficiales de los textos, y solo pueden capturar parte de los mensajes que consideraríamos discursos de odio. Por último, y como problema fundamental, no contamos con una definición de discurso de odio consensuada, lo cual dificulta su tratamiento automático.
Una alternativa al bloqueo solucionaría varios de estos problemas. Algunos científicos (Chung et. al. 2019, Benesch et. al. 2014) proponen "oponer contra-narrativas (respuestas textuales informadas) al contenido de odio". De esta manera, no existe riesgo de censura, se reducen las consecuencias negativas de errores en la clasificación de los mensajes y se difunde un contra-mensaje que potencialmente puede mitigar el efecto producido por el discurso de odio entre las personas que lo leyeron y que no necesariamente están convencidas o siquiera involucradas en la conversación.
Sin embargo, el gran volumen de mensajes online imposibilita la generación manual de contra-narrativas. Las aproximaciones automáticas también requieren de una complejidad acorde a la complejidad del propio problema. Descartadas las aproximaciones basadas en reglas manuales, las aproximaciones basadas en aprendizaje automático resultan una opción muy interesante, especialmente contando con los avances disponibles desde los modelos neuronales profundos. Pero la propia complejidad del problema hace que resulten necesarias enormes cantidades de datos etiquetados para poder aplicar métodos de aprendizaje automático profundo como los basados en transformers. Por esta razón es que hemos creado un conjunto de datos anotados que trata de proveer una capa de abstracción sobre los fenómenos de discurso de odio, en particular, sobre sus aspectos argumentativos. En este (primer!) concurso queremos comparar diferentes aproximaciones (iniciales) para la generación de contranarrativas a discurso de odio, en inglés y castellano, con y sin información argumentativa. Para más detalle, consulten las secciones sobre tareas, recursos disponibles y fechas importantes.
Damian A. Furman, Pablo Torres, Jose A. Rodriguez, Lautaro Martinez, Laura Alonso Alemany, Diego Letzen, Maria Vanina Martinez, 2022, Parsimonious Argument Annotations for Hate Speech Counter-narratives, https://arxiv.org/abs/2208.01099
Susan Benesch, Derek Ruths, Kelly P Dillon, Haji Mohammad Saleem, and Lucas Wright. 2016. Counterspeech on twitter: A field study. Dangerous Speech Project.
Yi-Ling Chung, Elizaveta Kuzmenko, Serra Sinem Tekiroglu, and Marco Guerini. 2019. CONAN - COunter NArratives through Nichesourcing: a Multilingual Dataset of Responses to Fight Online Hate Speech. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pages 2819–2829, Florence, Italy. Association for Computational Linguistics.
trabajas contra discurso de odio.
estás explorando la generación automática de textos o prompt programming.
querés profundizar tus habilidades sobre modelos multilingües.
querés experimentar en transfer learning multilingüe.
te interesa la teoría argumentativa y sus posibles aplicaciones en problemas prácticos.
estás estudiando comunidades enfrentadas en redes sociales, detección de conflictos en redes o caracterización de conversaciones
y, seguramente, en muchos otros casos
Enviando una contranarrativa generada automáticamente para cada tweet hasta el 25 de noviembre de 2022, a través del formulario que se habilitará a partir del 1 de noviembre. Más detalles en Tareas.
Podés inscribirte en el formulario de registro, para recibir noticias y actualizaciones sobre el desafío.
contrahate-grupos@unc.edu.ar