Martes, Noviembre 26

LinkedIn utilizó datos personales de sus usuarios para entrenar modelos de Inteligencia Artificial (IA) generativa antes de actualizar las condiciones del servicio e informarles de que lo estaba haciendo, una recopilación que no afectó a sus clientes de la Unión Europea (UE), según 404 Media.

Con el objetivo de mejorar la experiencia de los usuarios, la plataforma de empleo ofrece funciones impulsadas por IA para ayudar a los usuarios a llevar a cabo cuestiones como, por ejemplo, elaborar sus perfiles u ofrecer mejores descripciones de ofertas de empleo, según dio a conocer el pasado año.

MIRA: Desarrollo de la IA y manejos de sus riesgos no puede depender de “caprichos” del mercado, alerta la ONU

En este sentido, de cara a hacer más efectivas estas funcionalidades de IA y ofrecer mejores servicios, la plataforma comenzó recientemente a utilizar los datos personales de los miembros de LinkedIn para entrenar modelos de IA generativa. Sin embargo, llevó a cabo este procesamiento sin informar a los usuarios previamente de ello.

Esto lo ha adelantado 404Media, que, según declaraciones de la propia compañía, pudo comprobar que LinkedIn había comenzado a utilizar los datos de los usuarios para entrenar IA, antes de actualizar sus términos de servicio. Una vez se pusieron en contacto con LinkedIn, esta le indicó que actualizaría sus términos “en breve”.

Ahora, LinkedIn ha actualizado los términos del servicio informando de este uso de los datos personales para entrenar IA generativa, entre los que se incluye información como los datos de perfil o de contenido en publicaciones, tal y como han recogido medios como The Verge y TechCrunch.

Así, la plataforma de empleo ha introducido una nueva pauta en sus políticas de privacidad, en la que informa de que pueden utilizar los datos personales de los usuarios para “desarrollar y o entrenar modelos de IA” y que trata de “minimizar” esta información para estos fines.

MIRA: Se viene el final de Windows 10: qué pasará con mi computadora y qué puedo hacer

Esto lo ha indicado en el apartado de preguntas frecuentes, donde también ha adelantado que es una medida que es una medida que no afecta a usuarios de la Unión Europea (UE), el Espacio Económico Europeo (EEE) o Suiza porque no utiliza su información para entrenar su tecnología.

También ha indicado que esta novedad se ha implementado para “mejorar, desarrollar y proporcionar productos y servicios”, así como para obtener información de forma más sencilla con ayuda de la IA, sistemas automatizados e inferencias, según detalla en su página de privacidad. Todo ello, con el objetivo de que sus servicios “puedan ser más relevantes y útiles” para sus clientes y usuarios.

Por ejemplo, tal y como ha especificado la firma en su página de ayuda, utiliza estos modelos de IA para ofrecer herramientas como el asistente de redacción, que emplea esta tecnología para redactar mensajes.

MIRA: ¿Cuál es la inversión más importante que recomienda Bill Gates a los jóvenes para tener éxito en el futuro?

Modificar las pautas de privacidad

La compañía también ha subrayado que, aunque esta nueva pauta de privacidad para el uso de datos personales está activada de forma predeterminada, se trata de una configuración opcional. Por tanto, se puede modificar desde los ajustes de la cuenta de los usuarios en cualquier momento.

De esta forma, los usuarios pueden anular el permiso predeterminado de uso de sus datos desde la configuración de su perfil para que la plataforma no utilice sus datos. Dentro del apartado ‘Datos para la mejora de IA generativa’, bastará con desactivar la opción.

Conviene tener en cuenta que darse de baja en esta función significa que tanto LinkedIn como sus afiliados “no usarán los datos personales ni su contenido en LinkedIn para entrenar modelos en el futuro. Sin embargo, esta elección “no afecta el entrenamiento que ya se haya realizado”.

Compartir
Exit mobile version