El contenido realista sobre abuso sexual infantil generado con inteligencia artificial (IA) aumentó un 14 por ciento durante el pasado año 2025, con un total de 8.029 imágenes y videos identificados, de entre los que el 65 por ciento de los videos han obtenido clasificación más extrema.
`; document.body.appendChild(modalWrapper); let figcaption = modalWrapper.querySelector(«figcaption»); if(figcaption) figcaption.style.display=»none»; modalWrapper.querySelector(«.s-multimedia__close-modal»).addEventListener(«click»,()=>{modalWrapper.remove(); e.style.display=»flex»; if(caption) caption.style.display=»block»;});})})});});
“Cada nuevo avance en IA generativa se elogia por su capacidad para mejorar el realismo, aumentar la gravedad o hacer más inmersivo cualquier escenario sexual imaginable con un menor”, han detallado desde la IWF, al tiempo que han advertido que este realismo puede lograrse mediante “la adición de audio al video, la capacidad de representar a varias personas interactuando o incluso la manipulación exitosa de imágenes de un menor real conocido por el agresor”.
Un ejemplo de la facilidad de generar imágenes de abuso sexual infantil se ha visto recientemente en la red social X, cuando su generador de imágenes impulsado por la IA de Grok compartió en la plataforma alrededor de tres millones de imágenes sexualizadas, incluidas 23.000 que representaban a niños, respondiendo a solicitudes de los usuarios que requerían este tipo de contenido.
Incluso, los analistas de la organización han recogido a delincuentes hablando sobre las posibilidades de utilizar esta tecnología en el futuro. Concretamente, utilizar una “IA automatizada” que “en uno o dos años” pueda crear películas de abuso “introduciendo una consigna a un agente de IA sin censura”.
Enfoque de seguridad necesario en las empresas de IA y legislaciones
Como ha matizado al respecto la directora ejecutiva de IWF, Kerry Smith, en un comunicado, los avances tecnológicos “nunca deberían ir en detrimento de la seguridad y el bienestar de un niño”. Por tanto, ha apostillado que si bien la IA puede ofrecer muchos beneficios, “es espantoso pensar que su poder pueda usarse para arruinar la vida de un niño. Este material es peligroso”.
MIRA: Apple celebrará WWDC 2026, su evento para desarrolladores, del 8 al 12 de junio
Siguiendo esta línea, ha subrayado la necesidad urgente de que sean los propios gobiernos y empresas tecnológicas los que reconozcan los daños que provocan este tipo de prácticas de abuso sexual infantil generado por IA, así como las herramientas utilizadas para crearlo. “Debe haber tolerancia cero”, ha sentenciado.
Al respecto, ha instado a las empresas a adoptar un enfoque de seguridad “desde el diseño” que garantice la protección infantil integrada en el desarrollo de los productos. Es decir, que por ejemplo sean los propios ‘chatbots’ los que impidan la creación de estas imágenes.
El informe se ha publicado después de que el Parlamento Europeo haya aprobado una prórroga temporal de la Directiva sobre privacidad electrónica, con la que extiende la exención a la legislación sobre la privacidad que permite la detección voluntaria de material de abuso infantil ‘online’ hasta el 3 de agosto de 2027, en lugar del próximo 3 de abril como estaba previsto.
En concreto se trata de una derogación parcial de las normas de protección de datos en el sector de las comunicaciones electrónicas que permite a los proveedores de servicios de comunicaciones -como servicios de mensajería- utilizar tecnologías específicas para el tratamiento de datos personales y de otro tipo con el fin de detectar abusos sexuales a menores en Internet.













