Duración: 1 enero 2019 hasta 31 diciembre 2021
Financiado por: referencia PGC2018-096212-B-C31

Aunque los medios sociales de comunicación se han convertido en el canal empleado por defecto para compartir información, ideas y opiniones, pueden contribuir paradójicamente a la polarización de la sociedad como se ha podido comprobar en las últimas elecciones presidenciales en EEUU y en el referéndum Brexit. Cada usuario acaba recibiendo sólo la información que concuerda con sus creencias y puntos de vista, con el riesgo de un aislamiento intelectual (burbuja de información), donde las creencias pueden fortalecerse a partir de un mensaje repetido dentro de una comunidad cerrada (echo chamber). Un efecto perverso es que cuando la información corrobora nuestras creencias, tendemos a compartirla sin comprobar su veracidad. Esto facilita la propagación de desinformación (fake news) y una ulterior polarización. Otro efecto indeseado es que el relativo anonimato de los medios sociales favorece la propagación de lenguaje agresivo, de mensajes de odio, y exclusión, que fomentan la separación en comunidades cada vez más polarizadas en sus opiniones. Se tiende a una escasa argumentación en los contenidos que a menudo se limitan a unos pocos insultos. En el proyecto MISMISFAKEnHATE nos proponemos: (i) identificar noticias falsas considerando el lenguaje que usan, el nivel de emotividad, y la información multimodal (imágenes y vídeos) que contienen. Nos proponemos identificar la desinformación desde una perspectiva multimodal,
combinando la información textual con la visual a través de técnicas basadas en deep learning. Se llevará a cabo un análisis multilingüe cuándo la información será en lenguajes diferentes. Además, será importante perfilar si el autor de una noticia falsa es un bot o una persona, de manera en este caso de perfilar sus rasgos demográficos. (ii) detectar lenguaje agresivo y mensajes de odio en los medios
sociales de comunicación. Para monitorizar mensajes de odio, nos proponemos usar un enfoque terminológico, extrayendo términos y patrones lingüísticos de odio a partir de datasets analizados anteriormente y monitorizar sistemáticamente si se emplean en nuevas conversaciones online. La identificación de los mensajes de odio se llevará a cabo desde una perspectiva multilingüe; se usarán técnicas de traducción automática cuándo partes de los mensajes han sido escrito en un lenguaje diferente. Desde una perspectiva multimodal, se usarán técnicas basadas en deep learning para combinar información textual y visual. Se abarcará también el problema de perfilar los
haters, es decir, aquellos usuarios que escriben mensajes de odio. (iii) organizar campañas de evaluación para perfilar bots y humanos que están detrás a la disinformación, para identificar mensajes de odios en los medios sociales de comunicación, así como para perfilar los haters, por ejemplo en 2019 al PAN (tarea sobre Profiling bots and gender) y a SemEval (Multilingual  detection of hate speech against immigrants and women in Twitter).

Miembros