Apple ha revelado que sí actuó internamente frente a la ola de imágenes sexualizadas de mujeres y niños ocasionada por la herramienta de generación de imágenes de Grok, y que amenazó a la compañía de inteligencia artificial (IA) xAI con eliminar la aplicación de su asistente Grok de la App Store por “infringir sus directrices”.
En enero de este año, Grok colmó la red social X con alrededor de tres millones de imágenes sexualizadas durante alrededor de 11 días, incluidas 23.000 que representaban a niños y cerca de 1,8 millones en las que aparecían mujeres, según recogió el Centro para la Lucha contra el Odio Digital (CCDH).
MIRA: SparkCat, el nuevo malware que se infiltra en aplicaciones de la App Store y Google Play
Estos hechos se produjeron a causa de una opción disponible en X, que permitía utilizar a Grok para editar imágenes publicadas en la red social, con solo un clic. Así, el ‘chatbot’ accedía a la petición de algunos usuarios de desnudar a mujeres y niños, modificando sus imágenes para ponerles bikinis o que aparecieran en posiciones sexuales. Estas imágenes se compartían en respuesta a las publicaciones originales en X.
En ese momento, organizaciones de derechos digitales, seguridad infantil y derechos de las mujeres, así como instituciones gubernamentales solicitaron directamente a Apple y Google que tomasen medidas para “prohibir Grok” en sus tiendas de aplicaciones.
Ahora, se ha dado a conocer que Apple sí actuó a nivel interno y amenazó a la compañía propiedad de Elon Musk, xAI, con retirar la aplicación del asistente de IA de la App Store. Las razones fueron infringir sus directrices al no limitar la generación de imágenes sexualizadas por parte de los usuarios y permitir su viralización a través de la red social X.
Así se recoge en una carta que envió la propia Apple a senadores estadounidenses para explicar como abordó el aumento de estas publicaciones generadas por Grok, como ha compartido NBC News, que ha podido acceder a la carta, y ha recogido 9to5Mac.
Concretamente, tras “recibir quejas y ver la cobertura mediática del escándalo” Apple se puso en contacto de forma privada con los equipos responsables de X y Grok, exigiendo a sus desarrolladores que “crearan un plan para mejorar la moderación de contenido”.
Como respuesta, según se detalla en la carta, X envió una primera actualización de la aplicación de Grok para su revisión por parte de Apple, pero los de Cupertino no dieron su aprobación porque no consideraron suficientes los cambios.
Tras ello, la compañía de Elon Musk envió nuevamente una versión actualizada de la aplicación Grok, esta vez, junto con una versión revisada de la red social X. En este caso, Apple consideró que X “había subsanado sustancialmente sus infracciones”, sin embargo, determinó que la ‘app’ de Grok continuaba incumpliendo los requisitos de sus pautas.
Fue en ese momento cuando Apple notificó al desarrollador que “se requerían cambios adicionales para corregir la infracción” o, de lo contrario, “la aplicación podría ser eliminada de la App Store”, amenazando con dejarla fuera de su tienda de aplicaciones oficialmente.
Finalmente, X implementó nuevos cambios en su aplicación del asistente del IA que, aunque no se han especificado, sirvieron para que Apple determinase que Grok “había mejorado sustancialmente”, aprobando esta última entrega y permitiendo mantener la ‘app’ en la App Store.
Esta serie de modificaciones, concuerdan con los cambios que realizó X en su servicio de la red social y en Grok durante los incidentes ocurridos en enero con la sexualización de imágenes. En primer lugar, limitó el generador de imágenes de Grok permitiendo su uso únicamente para miembros de pago. Sin embargo, finalmente bloqueó la generación de imágenes sexualizadas a través de Grok para todos los usuarios.
A pesar de la moderación de la herramienta, también desde NBC News apuntan a que los usuarios siguen encontrando formas de utilizar Grok para generar imágenes sexualizadas de personas sin su consentimiento.
Así, según un nuevo informe compartido por el citado medio, aunque se ha disminuido la cantidad de estas publicaciones en comparación con enero, han documentado docenas de casos similares en los que se muestran imágenes de mujeres con ropa “más reveladora”, como sujetadores deportivos, trajes ajustados o disfraces.














