En un ecosistema digital donde la frontera entre la realidad y la simulación es cada vez más difusa, personalidades relevantes como la cantante Taylor Swift intentan proteger el uso no autorizado de su imagen con inteligencia artificial (IA) generativa a través de vías legales, sin embargo, expertos en ciberseguridad han advertido que estas barreras no son suficientes para luchar contra los ‘deepfakes’.
`; document.body.appendChild(modalWrapper); let figcaption = modalWrapper.querySelector(«figcaption»); if(figcaption) figcaption.style.display=»none»; modalWrapper.querySelector(«.s-multimedia__close-modal»).addEventListener(«click»,()=>{modalWrapper.remove(); e.style.display=»flex»; if(caption) caption.style.display=»block»;});})})});});
Por tanto, al registrar su vestuario o pose icónica, la artista hace frente al abuso de su estética con avatares no autorizados, marcando igualmente una hoja de ruta para otros personajes públicos que también quieran proteger su imagen.
No es suficiente contra los ‘Deepfakes’
Sin embargo, expertos en ciberseguridad y el uso de la IA de la compañía Check Point Software Technologies, han advertido que este blindaje legal “no será suficiente para frenar el impacto directo de los ‘deepfakes’” a los que se ha estado enfrentando Swift, dado que la ley “es reactiva frente a la velocidad del algoritmo”.
“Aunque estas acciones legales son pasos históricos”, la tecnología de suplantación requiere respuestas en tiempo real, como el marcado de contenido o ‘watermaking’, de cara a evitar que “la identidad de las celebridades se use como arma de desinformación masiva”, ha detallado la compañía.
Esto se debe a que el registro de una marca comercial no impide que se cree un ‘deepfake’ como tal, sino que, realmente, solo permite demandar a la persona o empresa propietaria de la IA que generó el ‘deepfake’ “una vez que el daño ya está hecho”.
Teniendo esto en cuenta y dada la rapidez con la que actúa la IA, el ‘deepfake’ con Taylor Swift “el daño se propaga más rápido” que cualquier intervención por parte de un tribunal al respecto, como ha remarcado el director técnico de Check Point Software para España y Portugal, Eusebio Nieva.
Así, ha hecho referencia a la campaña de IA utilizando la imagen de la cantante durante las últimas elecciones estadounidenses, que llegó a “millones de personas antes de que se pudiera contrarrestar de manera efectiva”.
Sistemas de protección reales
Por tanto, Nieva ha remarcado que la protección real frente a este uso no autorizado de imágenes personales, pasa por un “enfoque en capas”. Esto es, un conjunto de sistemas de detección, mecanismos que acrediten el origen del contenido y educación de los usuarios para que sean capaces de identificar manipulaciones.
“Con nuevas elecciones en el horizonte, el reto no es solo tecnológico o legal, sino de confianza pública en distinguir qué es real y qué no”, ha afirmado el experto en ciberseguridad.
Con todo ello, desde Check Point apuestan por, además de la vía legal, utilizar marcas de agua o etiquetas que identifiquen que un contenido se ha generado o ha sido modificado con IA, evitando compartir información engañosa o crear incertidumbre entre los usuarios.
Conviene recordar que el caso de Taylor Swift no es aislado, sino que consolida una tendencia de artistas y personajes conocidos a proteger su imagen. Es el caso del actor Matthew McConaughey, que recientemente también registró su conocido eslogan de 1993, “All right, all right, all right”, junto con otras protecciones sobre su imagen y voz.














