Domingo, Mayo 19

La propagación de deepfakes en redes sociales es un problema en crecimiento debido a la inteligencia artificial. De acuerdo con el informe State of Deepfakes 2021 de Home Security Heroes, entre 2019 y 2023 la proliferación de videos falsos y engañosos producidos con IA creció hasta un 550%.

Ante estas cifras, compañías dedicadas al impulso de modelos de IA, han creado herramientas para detectar las imágenes y videos creados por inteligencia artificial, tal como lo ha hecho OpenAI.

MIRA: WhatsApp: la nueva estafa a través de videollamadas que te roba los datos bancarios

La compañía a cargo de Sam Altman anunció que desarrollaron una herramienta para detectar imágenes creadas con su propia IA generativaDALL-E3.

De acuerdo con OpenAI, esta herramienta es capaz de identificar las imágenes creadas con su IA con al menos un 98% de precisión.

¿Cómo OpenAI detectará el contenido generado por IA?

De acuerdo con OpenAI, esta herramienta será probada en primera instancia con un grupo cerrado de científicos, investigadores y organizaciones periodísticas sin fines de lucro.

El mundo necesita formas comunes de compartir información sobre cómo se creó el contenido digital. Los estándares pueden ayudar a aclarar cómo se creó el contenido y proporcionar otra información sobre sus orígenes de una manera que sea fácil de reconocer en muchas situaciones, ya sea que el contenido sea la salida sin procesar de una cámara o una creación artística de una herramienta como DALL-E 3″, señala OpenAI en su comunicado.

MIRA: La manera de saber la ubicación de un celular solo con el correo electrónico

Hasta el momento, se ha dado a conocer que su eficacia es del 98%, por lo que pinta para ser una herramienta eficaz para detectar imágenes creadas con IA. Aún así, vale la pena esperar la opinión de los expertos.

De acuerdo con OpenAI esta misma herramienta será usada en Sora cuando se lance oficialmente.

GDA / El Universal / México

Compartir
Exit mobile version