jueves, marzo 12

`; document.body.appendChild(modalWrapper); let figcaption = modalWrapper.querySelector(«figcaption»); if(figcaption) figcaption.style.display=»none»; modalWrapper.querySelector(«.s-multimedia__close-modal»).addEventListener(«click»,()=>{modalWrapper.remove(); e.style.display=»flex»; if(caption) caption.style.display=»block»;});})})});});

El gobierno de España ha anunciado la introducción de la Huella del Odio y Polarización (HODIO), una herramienta para combatir los discursos de odio y promoción de la violencia en las redes sociales dentro de su territorio. La administración del país ibérico señala que busca promover que los servicios de Internet se decidan a tomar medidas para impedir la propagación de mensajes nocivos.

El gobierno de España ha anunciado la introducción de la Huella del Odio y Polarización (HODIO), una herramienta para combatir los discursos de odio y promoción de la violencia en las redes sociales dentro de su territorio. La administración del país ibérico señala que busca promover que los servicios de Internet se decidan a tomar medidas para impedir la propagación de mensajes nocivos.

La presentación tuvo lugar durante el Foro Contra el Odio que se realizó en Madrid y el presidente del gobierno, Pedro Sánchez, señaló que este sistema de monitoreo tiene como objetivo “sacar el odio de la sombra y exigir responsabilidades a quienes no actúan para que la vergüenza cambie de bando”, a la vez que criticó a las redes sociales, calificándolas como un “Estado fallido” que no permite orden alguno.

“Si el odio ya es peligroso, las redes sociales lo han convertido en un arma de polarización masiva, un arma fácil de encontrar y utilizar, extremadamente lucrativa para algunos”, declaró el mandatario ibérico.

La administración de Sánchez señala que HODIO estará alojada en la página web del Ministerio de Inclusión, Seguridad Social y Migraciones por medio del Observatorio Español del Racismo y la Xenofobia (OBERAXE). Ambas entidades han formado parte del desarrollo del sistema.

El primer ministro español, Pedro Sánchez, pronuncia una declaración oficial, en el Palacio de La Moncloa, en Madrid, el 4 de marzo de 2026. (Borja Puig de la Bellacasa / LA MONCLOA / AFP)

/ BORJA PUIG DE LA BELLACASA

`; document.body.appendChild(modalWrapper); let figcaption = modalWrapper.querySelector(«figcaption»); if(figcaption) figcaption.style.display=»none»; modalWrapper.querySelector(«.s-multimedia__close-modal»).addEventListener(«click»,()=>{modalWrapper.remove(); e.style.display=»flex»; if(caption) caption.style.display=»block»;});})})});});

Sobre el papel el sistema es capaz de analizar las redes sociales con mayor uso para elaborar un informe que incluirá un ránking para mostrar en qué plataforma hay mayor incidencia de manifestaciones de odio y discursos negativos polarizantes.

Estos reportes se generarán semestralmente y Sánchez asegura que los resultados que encuentre HODIO y su ránking serán públicos “para que todo el mundo sepa quién frena el odio, quién mira a otro lado y quién hace negocio con este”.

El jefe de gobierno español comparó el uso de la herramienta con la huella de carbono, señalando que esta “huella del odio” permitirá una medición del alcance del contenido dañino.

“Queremos empezar a hablar de la huella del odio para impedir el impacto social y democrático que estos discursos del odio están generando en la convivencia de nuestro país. Cuando algo se vive, cuando algo se mide deja de ser invisible y esto es lo sustantivo de esta herramienta porque empieza a generar responsabilidad no solamente a las plataformas digitales, sino también a las administraciones públicas”, indicó el líder socialista.

España lleva tiempo intentando generar modificaciones en la regulación de Internet. Por ejemplo, en febrero el gobierno hizo pública su intención de prohibir las redes sociales a los menores de 16 años, tal como lo hiciera Australia a fines del 2025.

El reciente debate alrededor del veto de redes sociales entre los adolescentes también abordó el tema de la trazabilidad del odio y desde entonces ya había opiniones divididas en torno a iniciativas relacionadas con este tópico.

En diálogo con El Comercio, el abogado Erick Iriarte, especialista en derecho digital, indica que la introducción de HODIO abre la puerta a dudas y cuestionamientos legítimos.

“Un elemento para determinar es qué se define como discurso de odio. Entra también en esta discusión cómo se equilibra esto con temas como libertad de expresión, por ejemplo, con la parodia, la crítica política o la autocrítica que pudieran hacerse a determinados colectivos. Son más preguntas que respuestas”, explica el jurista.

Erick Iriarte, especialista en derecho digital. (Foto: GEC)

`; document.body.appendChild(modalWrapper); let figcaption = modalWrapper.querySelector(«figcaption»); if(figcaption) figcaption.style.display=»none»; modalWrapper.querySelector(«.s-multimedia__close-modal»).addEventListener(«click»,()=>{modalWrapper.remove(); e.style.display=»flex»; if(caption) caption.style.display=»block»;});})})});});

El especialista explica que HODIO es parte de una serie de proyectos previos relacionados a la regulación y gestión de los discursos maliciosos, algo que ya ha llevado a desencuentros con plataformas como X, por citar un ejemplo.

Una de estas iniciativas es el anteriormente citado OBERAXE, que inició sus operaciones en el 2020 para revisar el incremento de los discursos de este tipo. Este análisis se tradujo en la creación de la aplicación Alertodio, un esfuerzo que se realizó con la participación de la Universidad Politécnica de Valencia. Al igual que sucede con la HODIO, este servicio está gestionado por el Ministerio de Inclusión.

Iriarte considera que es evidente que ningún negocio debería hacerse vulnerando los derechos de otras personas, pero aclara que hay un escenario en el que puede haber una afectación del mercado si se determina de forma arbitraria que algunos servicios son “mejores o peores” que otros.

“Todavía no se ha dicho con detalle en qué aplicaciones se va a realizar esto y ello podría llevar a que se fuerce el uso de aplicaciones locales, por citar un ejemplo. En ese contexto se podría buscar que estas últimas tengan una mejora en la posición porque son mejor acreditadas o ranqueadas que otras ‘apps’ más globales”, comenta el especialista.

La gestión de Sánchez ha justificado la necesidad de recurrir a soluciones como HODIO en función de experiencias previas. En un informe reciente, el diario español El País señalaba que el sistema de Filtrado y Análisis de Odio en las Redes Sociales (FARO) —otro proyecto del Ministerio de Inclusión— encontró que durante los disturbios de Torre Pacheco en julio del 2025 hubo un incremento masivo de los discursos de odio en Internet.

Vecinos de Torre Pacheco con el rostro cubierto en medio de los incidentes violentos registrados en Torre Pacheco, municipio perteneciente a la región de Murcia. (Foto: AFP)

/ STRINGER

`; document.body.appendChild(modalWrapper); let figcaption = modalWrapper.querySelector(«figcaption»); if(figcaption) figcaption.style.display=»none»; modalWrapper.querySelector(«.s-multimedia__close-modal»).addEventListener(«click»,()=>{modalWrapper.remove(); e.style.display=»flex»; if(caption) caption.style.display=»block»;});})})});});

Erick Iriarte reconoce que el gobierno español “está metiéndose en una discusión que se ha dejado un poco de lado al dejar que el mercado funcione automáticamente”, pero que esto por sí solo no anula el cuestionamiento crucial: qué se entiende por odio. Desde la perspectiva del experto, el hecho de que esa valoración dependa únicamente de un gobierno hace que sea una pregunta válida saber qué sucedería si las autoridades usan estas herramientas a su favor.

“Un elemento a determinar es qué se define como discurso de odio. ¿Es hablar explícitamente en contra de un determinado grupo humano? ¿Es plantear gráficas en contra determinado grupo humano? ¿Cómo entra en los límites de libertad de expresión? ¿Es solamente la apología del delito la que entra aquí? Entra aquí también cómo se equilibra esto con la libertad de expresión, con la parodia, la crítica política o la autocrítica que pudieran hacerse determinados colectivos”, argumenta el especialista.

El control del odio en las redes sociales ha tenido un viraje significativo a lo largo del último año, debido a que las empresas tecnológicas detrás de estos servicios realizaron despidos masivos de moderadores que comenzaron a reemplazar por inteligencia artificial y otros recursos.

(Foto de AFP)

/ STR

`; document.body.appendChild(modalWrapper); let figcaption = modalWrapper.querySelector(«figcaption»); if(figcaption) figcaption.style.display=»none»; modalWrapper.querySelector(«.s-multimedia__close-modal»).addEventListener(«click»,()=>{modalWrapper.remove(); e.style.display=»flex»; if(caption) caption.style.display=»block»;});})})});});

El caso de X (antes Twitter) fue el más radical de todos, pues luego de que Elon Musk comprara la plataforma despidió a cerca del 80% de su planilla, lo que incluyó a prácticamente la totalidad de su equipo ligado a la moderación de contenido. Diversas organizaciones reportaron un despegue masivo de los discursos de odio en este servicio tras la medida, aunque la posterior introducción de las notas aclaratorias comunitarias redujo parcialmente esta medida.

El caso de Meta, dueña de Instagram y Facebook, también fue relevante, ya que en mayo del 2025 despidió a 2.000 supervisores que filtraban mensajes de odio y violencia, recurriendo a la IA y priorizando la reducción de costos. Aunque todavía hay intervención humana, se ha abandonado la revisión proactiva de antes y los moderadores solo intervienen por casos con denuncias de gran repercusión, centrándose sobre todo en la libertad de expresión y lo que directamente pueda considerarse un delito.

TikTok también ha registrado despidos masivos, pero ha defendido la medida señalando que su IA elimina con enorme efectividad los contenidos que violan sus términos. Por su parte, YouTube todavía cuenta con moderadores humanos a gran escala, además de las herramientas automatizadas.

No obstante, ambas plataformas no han podido evitar las críticas que señalan que aún tienen deficiencias para rastrear el material de odio y suprimirlo.

Control de daños

Según reportó el OBERAXE en noviembre del 2025, durante octubre de ese año TikTok fue la red social que controló más eficazmente el contenido de odio y xenófobo reportado en la jurisdicción española, llegando a retirar el 96% de ese material.

En el polo opuesto se encontró X, que eliminó solo el 4% de este contenido durante ese periodo. Facebook llegó a una tasa de retirada del 53%, mientras que Instagram llegó al 37% y YouTube al 22%.

Erick Iriarte cree que el uso de inteligencia artificial no es malo por sí mismo, pero sostiene que al ser esta tecnología desarrollada por humanos también puede tener errores o generar sesgos, por lo que la gestión del odio es un proceso.

“Las redes sociales modernas, como las conocemos, tienen 20 años. No podemos decir que son herramientas jóvenes, porque la intensidad de su uso ha permitido una masificación global. Sí es más reciente la discusión detrás de jurisdicción y legislación aplicable sobre cómo se puede evitar la herramienta sea mal utilizada”, comenta el abogado.

El especialista sostiene que este último punto es particularmente sensible para los estados europeos, que velan celosamente por los derechos digitales de sus ciudadanos, pero deben lidiar con e hecho de que las plataformas sociales más populares tengan sus sedes en Estados Unidos y estén sujetas a la legislación de este país, más laxa en este apartado.

Iriarte apunta como inevitable que haya “una suerte de ensayo y error” alrededor del control de los discursos de odio, pero que esto también va a llevar a la toma de decisiones que pueden dejar insatisfechos a sectores importantes de la sociedad.

“Si bien es correcta la protección, ¿qué preferimos: los falsos positivos en la protección o los falsos positivos en la libertad de expresión? Ahí no hay una respuesta correcta, pues dependiendo de quién haga el análisis se va a preferir una cosa o la otra”, explica.

“Hay que encontrar instrumentos y no podemos soslayar la obligación de los estados de entrar a discutir el tema, así como también es evidente que las entidades y plataformas tienen que asumir responsabilidades, no necesariamente por los contenidos, sino por el cuidado una vez que se generen las alertas sobre mensajes nocivos y lo que van a hacer para evitarlos o eliminarlos una vez que se haya publicado”, finaliza Iriarte.

Bertha Rojas, candidata a la segunda vicepresidenta de Perú Libre, afirmó que a Pedro Castillo no estaba preparado académicamente para asumir la presidencia. Además, afirmó que el exmandatario estuvo «emborrachado» por el poder que el cargo le dio.
Share.
Exit mobile version