Un audio falso difundido días antes de una votación. Una llamada con la voz clonada de un presidente. Videos que nunca ocurrieron, pero que millones creyeron reales. La inteligencia artificial ya ha dejado huella en elecciones presidenciales del mundo y los deepfakes se han convertido en una nueva herramienta capaz de influir en el voto y erosionar la confianza democrática.
`; document.body.appendChild(modalWrapper); let figcaption = modalWrapper.querySelector(«figcaption»); if(figcaption) figcaption.style.display=»none»; modalWrapper.querySelector(«.s-multimedia__close-modal»).addEventListener(«click»,()=>{modalWrapper.remove(); e.style.display=»flex»; if(caption) caption.style.display=»block»;});})})});});
Durante la campaña presidencial argentina de 2023, la inteligencia artificial irrumpió con fuerza en la conversación pública, especialmente en la segunda vuelta. En la contienda entre Sergio Massa y Javier Milei, circularon masivamente en redes sociales imágenes y videos generados con IA que mostraban escenarios ficticios del país, declaraciones inexistentes y piezas diseñadas para amplificar el miedo o la burla.
Este fenómeno marcó uno de los primeros procesos electorales en Latinoamérica donde la IA generativa tuvo un rol visible y estratégico.
En las elecciones municipales de octubre de 2024 circularon videos y audios manipulados atribuidos a líderes como Luiz Inácio Lula da Silva y Jair Bolsonaro.
El Tribunal Superior Electoral brasileño intervino y reforzó lineamientos sobre el uso de inteligencia artificial en propaganda electoral.
Brasil se convirtió así en uno de los primeros países latinoamericanos en enfrentar institucionalmente el fenómeno, exigiendo que cualquier uso de IA en propaganda electoral sea explícitamente identificado como tal. Además, la regulación habilita la remoción rápida de contenidos manipulados y sanciones a campañas que utilicen material sintético engañoso.
En enero de 2024, votantes en New Hampshire recibieron llamadas automatizadas con una voz clonada de Joe Biden que les pedía no participar en las primarias demócratas. El audio fue generado con inteligencia artificial y diseñado para parecer auténtico.
El caso desencadenó investigaciones federales y llevó a la Comisión Federal de Comunicaciones (FCC) a declarar que el uso de voces generadas por inteligencia artificial en robocalls es ilegal bajo la normativa vigente, además de imponer sanciones millonarias contra los responsables.
Tres días antes de las elecciones parlamentarias de 2023, circuló por Telegram un audio deepfake que simulaba una conversación del líder político Michal Šimečka y una periodista hablando sobre un plan de manipulación del proceso electoral.
El momento de difusión fue estratégico, ya que al producirse en la recta final de campaña, redujo la capacidad de desmentido efectivo y el partido de Šimečka perdió las elecciones.
Durante las elecciones generales celebradas entre abril y junio de 2024, el equipo de Narendra Modi (actual Primer Ministro de India) utilizó inteligencia artificial para generar mensajes personalizados en distintos idiomas regionales, ampliando su alcance a millones de votantes. En paralelo, circularon videos deepfakes de sus opositores usando, sin consentimiento, la imagen de conocidos actores de Bollywood.
“La velocidad de la IA supera la capacidad de reacción institucional. Por eso es clave combinar regulación, tecnología de verificación y educación digital, donde las autoridades, plataformas y ciudadanos logren actuar de manera coordinada”, advierte Juárez.
En el Perú, en abril de 2025, el Congreso aprobó la Ley N.º 32314, la cual incorpora a la inteligencia artificial como agravante en delitos digitales como la difamación, la estafa, la pornografía infantil y la suplantación de identidad mediante deepfakes. Gracias a esta normativa, la difamación mediante esta tecnología también puede ser castigada con hasta 3 años de prisión.
De cara a las elecciones presidenciales de abril, estas son algunas recomendaciones prácticas para no caer en la desinformación por contenido manipulado:
1. Verifique antes de compartir
Si un video o audio genera indignación inmediata o parece explosivo, deténgase. Busque la declaración en medios reconocidos o canales oficiales antes de reenviarla.
2. Desconfíe de audios anónimos en WhatsApp
Los mensajes sin fuente clara, especialmente los que afirman “esto no lo verás en la prensa”, suelen ser desinformación.
3. Observe detalles técnicos
Movimientos labiales poco sincronizados, parpadeo irregular o tono de voz robótico pueden ser señales de manipulación.
4. Consulte fuentes oficiales
Revise redes verificadas de candidatos, organismos electorales y medios formales para contrastar información.
5. No reaccione emocionalmente de inmediato
Los deepfakes están diseñados para provocar miedo, enojo o sorpresa. Esa reacción rápida es parte de su estrategia.
6. Fomente la alfabetización digital en su entorno
Conversar sobre el riesgo de deepfakes con familiares y amigos reduce la probabilidad de que el contenido falso se viralice.
“En un proceso electoral, un video falso difundido en el momento adecuado puede alterar percepciones, sembrar dudas o desalentar la participación. Ad portas de las elecciones, la responsabilidad de decidir el futuro del país no solo corresponde a autoridades y partidos políticos, sino también a cada ciudadano frente a su pantalla”, concluye el experto de Sovos.













