El Gobierno de España y las principales plataformas digitales, como Meta, YouTube y TikTok, han acordado reunirse trimestralmente para analizar y mejorar la gestión del discurso de odio en redes sociales. Durante una reciente reunión, se presentó el informe anual de 2024 del Observatorio Español del Racismo y la Xenofobia (OBERAXE), que reveló que solo el 35% de los 2.870 contenidos racistas notificados fueron retirados. La ministra Elma Saiz destacó la importancia de un trabajo conjunto para frenar la desinformación y el odio en línea. Se implementará un sistema de seguimiento basado en inteligencia artificial para detectar contenidos nocivos y se explorarán definiciones homogéneas del "discurso de odio". Los datos muestran un incremento alarmante en los discursos hostiles, especialmente hacia personas originarias del norte de África, lo que subraya la necesidad urgente de acciones efectivas contra este fenómeno persistente.
La ministra de Inclusión, Seguridad Social y Migraciones, Elma Saiz, ha liderado una reunión clave en la que el Gobierno presentó a las plataformas digitales la memoria anual sobre el discurso de odio correspondiente al año 2024. Este informe fue elaborado por el Observatorio Español del Racismo y la Xenofobia (OBERAXE) y reveló que se notificaron un total de 2.870 contenidos racistas, de los cuales solo se retiró el 35%.
Durante el encuentro, al que asistieron representantes de Meta, YouTube y TikTok, se estableció el compromiso de trabajar conjuntamente para mejorar tanto los datos como los tiempos de retirada de contenido relacionado con el odio. Esto se llevará a cabo mediante reuniones técnicas trimestrales que permitirán analizar la evolución de estos mensajes.
«Agradezco a todas las plataformas su asistencia a esta reunión. Hoy reanudamos los trabajos del grupo de colaboración creado el pasado 30 de julio, un espacio pionero en España y sin precedentes en la Unión Europea», afirmó Saiz. La ministra destacó la importancia de frenar la desinformación y el discurso de odio en redes sociales como una tarea colectiva.
Las plataformas digitales y el Ministerio han acordado reunirse cada tres meses, además de formar grupos internos para abordar cuestiones técnicas relacionadas con la Ley de Servicios Digitales (DSA) y establecer una definición uniforme del «discurso de odio». Las empresas han mostrado interés en detener estos mensajes nocivos y compartirán sus propios datos y herramientas para eliminar contenido antes de que llegue a los usuarios.
El informe del OBERAXE indica que durante 2024 se notificaron 2.870 contenidos considerados como discursos de odio racista, xenófobo, antisemita, antigitano o islamófobo a cinco plataformas principales: Facebook, X, Instagram, TikTok y YouTube. En 2025, este número ha aumentado significativamente debido a un sistema basado en inteligencia artificial llamado Sistema FARO, que ha detectado más de 614.000 contenidos reportables.
A pesar del aumento en las notificaciones, un preocupante 65% del contenido reportado en 2024 nunca fue retirado por las plataformas. Esta cifra alcanzó el 66% en la primera mitad de 2025.
Según los datos recopilados por OBERAXE, la hostilidad hacia personas originarias del norte de África representó el 35% del total del discurso de odio identificado en 2024. Otros grupos afectados incluyeron a personas africanas y afrodescendientes (24%) e inmigrantes en general (21%). Las tendencias varían según la plataforma; por ejemplo, X dirige su discurso principalmente hacia personas del norte de África (30%), mientras que Facebook lo hace hacia inmigrantes (42%).
El informe también señala que un alarmante 37% del contenido analizado incluía deshumanización hacia grupos diana, mientras que un 29% incitaba a la violencia mediante amenazas directas o indirectas contra migrantes o personas extranjeras.
A lo largo de 2024, las plataformas solo lograron retirar el 35% del contenido notificado. De este porcentaje, apenas un 4% fue eliminado dentro de las primeras 24 horas tras ser reportado. Esta ineficacia es preocupante dado que ese periodo es crucial para prevenir la viralización y mitigar el impacto negativo del discurso.
A pesar de contar con mecanismos establecidos por el Código de Conducta y la Ley DSA (Reglamento UE 2022/2065), sigue siendo insuficiente la respuesta ante los discursos de odio. Un asombroso 96% del contenido notificado infringe las normas internas establecidas por las plataformas.
A través del análisis realizado por OBERAXE sobre los datos recogidos durante 2024, se concluye que la hostilidad hacia personas extranjeras ya no es un fenómeno aislado vinculado a eventos concretos. Se ha convertido en una manifestación estructural alimentada por estereotipos y desinformación que encuentran en las redes sociales un medio efectivo para propagarse.
No obstante, episodios recurrentes como la asociación entre inmigración e inseguridad ciudadana actúan como catalizadores para este tipo de discursos. Es relevante destacar que alrededor del 40% del contenido relacionado con inseguridad es percibido erróneamente y no se basa en hechos verídicos.
The Sistema FARO representa una metodología innovadora destinada a identificar y analizar contenidos relacionados con discursos odiosos motivados por racismo o xenofobia en tiempo real. Esta herramienta fue cedida por LALIGA como parte de un convenio firmado recientemente.
Cifra | Descripción |
---|---|
2,870 | Total de contenidos de discurso de odio notificados en 2024. |
35% | Porcentaje de contenidos retirados por las plataformas tras ser notificados en 2024. |
4% | Porcentaje de contenidos retirados en las primeras 24 horas tras la notificación. |
614,833 | Total de contenidos reportables detectados entre enero y agosto de 2025. |
El objetivo es mejorar los datos y el tiempo de retirada de contenido de odio mediante un trabajo colaborativo y coordinado, con reuniones técnicas trimestrales para analizar la evolución de los mensajes de contenido racista.
En 2024, se notificaron un total de 2.870 contenidos considerados como discurso de odio racista, xenófobo, antisemita, antigitano o islamófobo.
Las plataformas retiraron solo el 35% de los contenidos notificados en 2024, y solo el 4% de estos se retiró en las primeras 24 horas.
Las personas originarias del norte de África fueron el principal grupo diana, concentrando el 35% del total de discursos de odio identificados.
El lenguaje explícitamente agresivo es el más frecuente, observado en el 53% de los contenidos monitorizados en 2024, cifra que aumentó al 70% en el primer trimestre de 2025.
Se está utilizando el Sistema FARO, una metodología innovadora diseñada para identificar y analizar en tiempo real contenidos de discurso de odio en redes sociales.