Hackers vinculados a los gobiernos en Rusia, Corea del Norte e Irán han recurrido a ChatGPT para explorar nuevas formas de llevar a cabo ataques en línea, dijeron OpenAI y Microsoft este miércoles.
OpenAI y Microsoft eliminaron cuentas vinculadas a hackers, en medio de crecientes esfuerzos de ambas compañías por frenar el uso malicioso de los populares “chatbots” de Inteligencia Artificial (IA) por parte de actores estatales, indicaron esas compañías.
LEE TAMBIÉN: Bard vs. ChatGPT: las diferencias y similitudes entre las IA más populares de la actualidad
Microsoft es el principal inversor de OpenAI y usa su tecnología de IA, conocida como modelo de lenguaje grande (LLM) para potenciar sus aplicaciones y software.
Según la compañía, los hackers están usando LLM para “progresar en sus objetivos y técnica de ataque”.
Entre los hallazgos de Microsoft está Forest Blizzard, vinculado con la inteligencia militar rusa, que ha usado LLM para “investigar diversas tecnologías de satélites y radares que pueden pertenecer a operaciones militares convencionales en Ucrania”.
También menciona el trabajo del grupo Emerald Sleet, relacionado con Corea del Norte, relacionado con la investigación a centros de pensamiento y expertos vinculados al régimen comunista, así como en el contenido que probablemente sea usado para campañas digitales de pishing (suplantación).
Y Crimson Sandstorm, asociado con la Guardia Revolucionaria de Irán, que usó ChatGPT para programar y solucionar malware (programas maliciosos) así como para obtener ayuda para evitar que los hackers sean detectados, afirmó Microsoft.
OpenAI sostuvo que el peligro es “limitado”, pero la empresa busca adelantarse a la evolución de la amenaza con “constante atención” para que los usuarios puedan seguir disfrutando de los beneficios de su IA.
“El objetivo de la asociación con OpenAI, incluida la publicación de esta investigación, es garantizar el uso seguro y responsable de tecnologías de IA como ChatGPT”, apuntó por su parte Microsoft.