viernes, febrero 27

Este resumen es generado por inteligencia artificial y revisado por la redacción.

`; document.body.appendChild(modalWrapper); let figcaption = modalWrapper.querySelector(«figcaption»); if(figcaption) figcaption.style.display=»none»; modalWrapper.querySelector(«.s-multimedia__close-modal»).addEventListener(«click»,()=>{modalWrapper.remove(); e.style.display=»flex»; if(caption) caption.style.display=»block»;});})})});});

Instagram anunció que a lo largo de las “próximas semanas” comenzará a enviar notificaciones a los padres si sus hijos adolescentes buscan de forma recurrente términos relacionados con el suicidio o la autolesión.

Instagram anunció que a lo largo de las “próximas semanas” comenzará a enviar notificaciones a los padres si sus hijos adolescentes buscan de forma recurrente términos relacionados con el suicidio o la autolesión.

Meta, matriz de Instagram, indicó en un comunicado que es una protección específicamente diseñada para las cuentas de adolescentes y las alertas formarán parte del sistema de supervisión parental ya disponibles para estas.

Los avisos serán enviados a los tutores por correo electrónico, mensajes de texto (SMS) y WhatsApp en función de la información de contacto proporcionada por ellos. La firma tecnológica añade que las alertas no solo enviarán información sobre los contenidos peligrosos que pueda estar revisando un menor en Instagram, sino que también brindarán la opción de consultar con recursos informativos elaborados por especialistas para abordar esta problemática con los menores.

A picture taken on October 18, 2021 in Moscow shows the US social network Instagram's logo on a tablet screen. (Photo by Kirill KUDRYAVTSEV / AFP)

A picture taken on October 18, 2021 in Moscow shows the US social network Instagram’s logo on a tablet screen. (Photo by Kirill KUDRYAVTSEV / AFP)

`; document.body.appendChild(modalWrapper); let figcaption = modalWrapper.querySelector(«figcaption»); if(figcaption) figcaption.style.display=»none»; modalWrapper.querySelector(«.s-multimedia__close-modal»).addEventListener(«click»,()=>{modalWrapper.remove(); e.style.display=»flex»; if(caption) caption.style.display=»block»;});})})});});

“Entendemos lo delicados que son estos temas y lo angustiante que puede ser para un padre recibir una alerta como esta. La gran mayoría de los adolescentes no intenta buscar contenido sobre suicidio y autolesión en Instagram, y cuando lo hacen, nuestra política es bloquear estas búsquedas y, en su lugar, dirigirlos a recursos y líneas de ayuda que pueden ofrecer apoyo”, señaló la empresa.

Meta sostiene que los reportes se envían tras un análisis de las búsquedas y en función de un “umbral” de pocas búsquedas sobre temáticas ligadas al suicidio y autolesión en márgenes de tiempo cortos. De forma preventiva, la firma señala que su plataforma bloquea contenidos de este tipo por defecto entre los jóvenes incluso si proviene de cuentas a las que siguen o se trata de personas que hablen sobre sus propios problemas alrededor de estas situaciones.

Estados Unidos, Canadá, Reino Unido y Australia serán los primeros países en contar con esta herramienta y se espera que esté disponible en otras regiones hacia finales del presente año.

La introducción de este tipo de medidas se produce en un contexto en el que Meta y otras compañías como Google fueron demandadas a inicios de febrero en Los Ángeles por una joven estadounidense de iniciales KGM. Las firmas tecnológicas fueron acusadas de “crear adicción en el cerebro en los niños” y de haberlo hecho “a propósito.

La defensa legal de la mujer de 20 años sostiene que el uso de redes sociales desde temprana edad la volvió adicta a estas, contribuyendo a empeorar su cuadro depresivo y que tuviera pensamientos suicidas.

TikTok y Snapchat fueron parte de la demanda original, pero antes del comienzo formal del proceso lograron acuerdos extrajudiciales, cuyos alcances no han sido revelados.

Como parte del juicio, Mark Zuckerberg, director ejecutivo de Meta, tuvo que responder a los abogados denunciantes el 18 de febrero. El fundador de Facebook fue consultado por las políticas de verificación de edad de sus plataformas, el potencial diseño adictivo de estas y las presuntas acciones de la empresa para generar que sus usuarios pasaran más tiempo dentro de sus redes.

A pesar de que el magnate de Silicon Valley ha debido testificar ante el Parlamento de EE. UU. a causa de diversos cuestionamientos hacia sus plataformas, esta fue la primera ocasión en la que tomó parte de un juicio contra su empresa.

El director ejecutivo y presidente de Meta, Mark Zuckerberg, llega al Tribunal Superior de Los Ángeles antes del juicio contra las redes sociales, en el que se determinará si los gigantes de las redes sociales diseñaron deliberadamente sus plataformas para que resultaran adictivas para los niños, en Los Ángeles, el 18 de febrero de 2026. (Foto: Patrick T. Fallon / AFP)

/ PATRICK T. FALLON

`; document.body.appendChild(modalWrapper); let figcaption = modalWrapper.querySelector(«figcaption»); if(figcaption) figcaption.style.display=»none»; modalWrapper.querySelector(«.s-multimedia__close-modal»).addEventListener(«click»,()=>{modalWrapper.remove(); e.style.display=»flex»; if(caption) caption.style.display=»block»;});})})});});

Durante su comparecencia en el juzgado de Los Ángeles, el empresario fue increpado por una presunta discordancia entre sus declaraciones previas ante el Congreso de Estados Unidos, en las que aseguró que la empresa había dejado de establecer objetivos en relación con el tiempo que los usuarios pasaban dentro de sus servicios. El abogado de la parte demandante, Mark Lanier, mostró documentos internos de la empresa que presuntamente contradecían estos dichos.

Otros puntos sobre los que se plantearon cuestionamientos fueron el “scroll infinito” como posible generador de adicción y el hecho de que Meta contratara expertos para analizar el impacto de los filtros de belleza, con un potencial efecto sobre la autopercepción de los adolescentes.

“Bajo juramento, el director general de Meta testificó que su empresa no tiene como objetivo aumentar el tiempo que los usuarios pasan en Instagram. Pero sabemos que Zuckerberg y sus ejecutivos impidieron que Instagram se deshiciera de funciones como los conteos visibles de ‘me gusta’ y los filtros de cirugía plástica, funciones que tienen una naturaleza adictiva”, señaló al respecto Josh Golin, director de la organización Fairplay, que busca el bienestar de los menores y sigue el caso.

Zuckerberg no fue el único directivo relacionado a Meta que testificó en este caso, pues el director de Instagram, Adam Mosseri, se había presentado una semana antes.

Una demanda de características similares también ha sido entablada en Nuevo México, en la que se acusa a Meta de haber generado un “caldo de cultivo” para la presencia de depredadores sexuales y hacer que menores de edad estuvieran expuestos a contenido explícito.

El director ejecutivo de Instagram, Adam Mosseri (Foto: Brendan Smialowski / AFP)

/ BRENDAN SMIALOWSKI

`; document.body.appendChild(modalWrapper); let figcaption = modalWrapper.querySelector(«figcaption»); if(figcaption) figcaption.style.display=»none»; modalWrapper.querySelector(«.s-multimedia__close-modal»).addEventListener(«click»,()=>{modalWrapper.remove(); e.style.display=»flex»; if(caption) caption.style.display=»block»;});})})});});

La fiscalía local creó varias cuentas falsas en las que los agentes estatales fingían ser menores de edad y terminaron encontrando material de carácter sexual, además de comenzar a ser contactados por cuentas de adultos que buscaban encuentros e interacciones íntimos.

La postura de los fiscales es que el algoritmo de Meta no filtró adecuadamente a los agresores sexuales, sino que los terminó guiando hacia las cuentas de niños y adolescentes.

El juicio comenzó formalmente el 9 de febrero y Meta ha calificado estos argumentos de exagerados y sencacionalistas.

“Mientras Nuevo México presenta argumentos sensacionalistas, irrelevantes y distractores, nosotros estamos enfocados en demostrar nuestro compromiso de larga data con apoyar a los jóvenes”, declaró por entonces un portavoz de la empresa en CNN.

Meta ha argumentado que estas demandas contra las firmas de redes sociales buscan trasladar la problemática de la salud mental de los jóvenes hacia estas entidades, pero que el problema es más complicado de abordar.

“Esto simplifica un problema serio. Los clínicos e investigadores encuentran que la salud mental es un problema profundamente complejo y multifacético, y las tendencias sobre el bienestar de los adolescentes no son claras ni universales”, indicó la compañía en una publicación de su blog.

“Reducir los desafíos que enfrentan los adolescentes a un solo factor ignora la investigación científica y los muchos factores estresantes que impactan a los jóvenes hoy en día, como la presión académica, la seguridad escolar, los desafíos socioeconómicos y el abuso de sustancias”, añadía Meta.

Dentro del contexto estadounidense, las plataformas de Internet solían escudarse en la sección 230 de la Ley de Decencia en las Comunicaciones, la cual establecía que estos servicios esencialmente no eran responsables del contenido que mostraba dentro de ellos.

“Ningún proveedor o usuario de un servicio informático interactivo será tratado como el editor o altavoz de cualquier información proporcionada por otro proveedor de contenido de información”, indica esa parte de la normativa.

El diseño de Instagram y otras plataformas es el foco principal de las denuncias. (Foto: cottonbro studio / Pexels)

`; document.body.appendChild(modalWrapper); let figcaption = modalWrapper.querySelector(«figcaption»); if(figcaption) figcaption.style.display=»none»; modalWrapper.querySelector(«.s-multimedia__close-modal»).addEventListener(«click»,()=>{modalWrapper.remove(); e.style.display=»flex»; if(caption) caption.style.display=»block»;});})})});});

Un punto clave de las demandas actuales es que no apuntan al contenido que presentan las redes sociales como Instagram o TikTok, sino que se centran en el diseño de estos servicios como los auténticos generadores de problemáticas. Un eje complementario de las denuncias es que estas plataformas sean tratadas como productos de consumo y no solo servicios de comunicación.

Esto haría que a las redes sociales se les pueda aplicar un principio de responsabilidad sobre el producto, lo que implicaría la revisión de sus sistemas y el sometimiento a avisos o pruebas de seguridad, lo que a su vez generaría una jurisprudencia que podría condicionar de forma decisiva sus operaciones futuras.

El uso de los servicios de Internet se ha enmarcado dentro del espectro de la Ley de Protección de la Privacidad Infantil en Línea (COPPA) de Estados Unidos, que ha sido el punto de partida para que se generalice que la edad mínima para el uso de las redes sociales sea de 13 años.

Desde fines de 2024 y a lo largo del 2025, Instagram creó cuentas de adolescentes e hizo que las cuentas de menores de 16 años ya existentes migraran hacia dicho formato.

Estos registros se diferencian en que tienen privacidad por defecto y solo las personas aceptadas por sus usuarios pueden ver sus perfiles, a lo que se añade que solo se pueden comunicar por mensajes con personas con las que se siguen mutuamente. Asimismo, tal como se señalaba líneas arriba, el contenido sensible es filtrado por defecto y esto incluye problemáticas de salud mental, cirugías estéticas y otros procedimientos de este tipo, así como temas sugerentes.

La publicidad le genera a Snapchat más de US$4.000 millones de dólares al año.

`; document.body.appendChild(modalWrapper); let figcaption = modalWrapper.querySelector(«figcaption»); if(figcaption) figcaption.style.display=»none»; modalWrapper.querySelector(«.s-multimedia__close-modal»).addEventListener(«click»,()=>{modalWrapper.remove(); e.style.display=»flex»; if(caption) caption.style.display=»block»;});})})});});

Estas cuentas para adolescentes son también las que envían las recientemente introducidas alarmas sobre búsquedas ligadas a la autolesión o el suicidio. Los servicios de meta también han sido configurados para que estas consultas sean detectadas en sus chatbots con inteligencia artificial.

Estos perfiles permiten a los tutores ver las cuentas con las que sus hijos han conversado a lo largo de la última semana e incluso permiten bloquear el aplicativo en horarios determinados por los padres.

Además, Instagram cuenta con un modo sueño que se activa a partir de las 10 p. m. y desactiva de forma automática las notificaciones, enviando como respuesta automática a mensajes que el usuario no está disponible.

Ante la presión progresiva, Meta y servicios similares comenzaron a establecer funcionalidades que les permitieran detectar la presencia de niños menores de ese rango etario.

En lo que respecta a otros servicios de Meta, Facebook cuenta restricciones similares para los menores, pues los usuarios adolescentes solo pueden recibir mensajes de sus amigos en la plataforma o personas que tengan registradas como contactos telefónicos. Sus listas de amigos son privadas y los padres tienen las en Messenger las mismas herramientas de monitoreo que en Instagram.

En WhatsApp el control es básicamente preventivo, debido a que el cifrado de extremo a extremo es una característica de este servicio de mensajería. La captura de pantalla de las fotos de perfil no está permitida dentro de esta ‘app’, solo los contactos registrados pueden agregar a menores a grupos y se ha comenzado a emplear inteligencia artificial para detectar a posibles menores de 13 años que usen la plataforma.

TikTok también cuenta con medidas de protección para menores y tiene un sistema de gestión para padres que fue introducido en 2025. Con este los tutores pueden bloquear temáticas que no quieren que sus hijos sigan y hacer un seguimiento a qué tópicos han estado viendo los menores.

Dentro del servicio de origen chino, las cuentas de los menores de 15 años son privadas por defecto y tienen un sistema para recompensar las horas de descanso, deporte o permanencia no prolongada.

Desde la parcela de Google, en YouTube se han introducido límites para la visualización de videos cortos (‘shorts’) por ser estos considerados potencialmente adictivos. Los padres pueden establecer márgenes de tiempo diarios y desactivar el ‘feed’ de los videos breves.

Por su parte, Snapchat no muestra los perfiles de menores en las búsquedas de adultos a menos que se trate de cuentas con varios amigos en común. La aplicación también cuenta con una función llamada Mapa de Snaps que, además de su uso lúdico habitual, permite que los padres hagan un seguimiento de los desplazamientos de sus hijos.

El caso de Roblox también es llamativo por la gran proporción de menores que acuden a esta plataforma de juegos, estimándose que el 40% de sus usuarios son niños menores de 13 años. Ante las denuncias de delitos sexuales y prácticas económicas predatorias contra menores, el servicio la empresa introdujo sistemas de verificación para el uso del chat de voz y otras funciones.

Durante febrero, Roblox también lanzó un consejo consultivo para los padres de cara al ordenamiento de sus políticas de uso.

En diciembre del 2025 Australia se convirtió en el primer país del mundo en restringir el uso de redes sociales a menores de 16 años. Entre los servicios que no pueden usar los adolescentes se encuentran Facebook, Instagram y Threads, X, Snapchat, Youtube y TikTok. Algunos aplicativos como WhatsApp no fueron incluidos en el veto.

Un niño de 13 años muestra un mensaje en su teléfono móvil de la plataforma de redes sociales Snapchat después de que su cuenta fuera bloqueada para verificar su edad en Sídney el 9 de diciembre de 2025. (Foto de AFP)

/ STR

`; document.body.appendChild(modalWrapper); let figcaption = modalWrapper.querySelector(«figcaption»); if(figcaption) figcaption.style.display=»none»; modalWrapper.querySelector(«.s-multimedia__close-modal»).addEventListener(«click»,()=>{modalWrapper.remove(); e.style.display=»flex»; if(caption) caption.style.display=»block»;});})})});});

El gobierno australiano argumentó que el diseño de dichos servicios era potencialmente nocivo a largo plazo para los menores, por lo que se optó por la medida después de un amplio periodo de análisis.

“Esta legislación no se sostiene sola, se basa en más de una década de esfuerzos en seguridad electrónica y prevención, cimentada en evidencia e investigación y experiencia en el mundo real para construir el entendimiento de las comunidades sobre los daños potenciales en línea, así como las habilidades para prevenirlos y buscar ayuda si estos ocurren”, dijo por entonces Julie Inman Grant, comisionada de Seguridad Electrónica australiana.

Para cumplir con dicha medida las plataformas recurrieron en primera instancia a los filtros por fecha de creación y perfiles en función de consumo de contenidos que ya usaban para eliminar las cuentas de menores de 13 años.

Además de lo anterior, Meta y Snapchat comenzaron a emplear sistemas de validación biométrica como las capturas de imágenes para detectar las edades.

Meta y TikTok emplean un sistema llamado Yoti que es capaz de detectar en un minuto si un usuario es menor de edad a través del análisis de fotos y videos. Esta información es eliminada tras su uso por parte del servicio.

Snapchat ha recurrido a una solución similar llamada K-ID que escanea los rostros y los documentos. La empresa también recurre a un software llamada ConnectID que revista la información de internet y los datos bancarios.

Países como Francia y Malasia ya han mostrado su interés por imitar el modelo australiano. En el caso del gobierno galo, su intención es limitar el uso de redes sociales para los menores de 15 años y la Comisión Europea también ha señalado que tiene la intención de establecer un marco normativo similar.

Share.
Exit mobile version