Viernes, Noviembre 29

El texto legal, que entrará en vigor en 12 meses, fue aprobado el jueves 28 por el Senado con 34 votos a favor y 19 en contra, tras obtener luz verde en la Cámara de Representantes con 101 votos a favor y 13 en contra. La ley cuenta incluso con el respaldo de parte de la oposición.

MIRA: Elon Musk quiere recortes masivos de funcionarios y gasto federal en EE.UU.

La normativa, pionera en el país oceánico, busca prohibir que menores de 16 años accedan a redes sociales. Además, contempla multas de hasta 50 millones de dólares australianos (33 millones de dólares) para las plataformas que incumplan la regulación.

“Se trata de proteger a los jóvenes, no de castigarlos ni aislarlos”, dijo Michelle Rowland, ministra de comunicaciones de Australia, quien afirmó que el abuso de drogas, trastornos alimentarios y violencia son algunos de los daños que los niños pueden encontrar en línea.

La Cámara de Representantes aún debe ratificar las enmiendas introducidas por la oposición en el Senado, un trámite que se considera una formalidad, ya que el Gobierno ha asegurado que serán aprobadas.

No obstante, los críticos dicen que hay importantes preguntas sin respuesta sobre cómo se aplicará la ley, cómo se protegerá la privacidad de los usuarios y, fundamentalmente, si la prohibición realmente protegerá a los niños.

Consultado por El Comercio sobre el tema, el abogado especializado en legislación informática, Óscar Montezuma, afirmó que “este tipo de prohibiciones ya se han ensayado en el pasado y no impiden que los menores encuentren otras formas de acceder a la tecnología”. Según el experto, este enfoque podría generar efectos adversos, como la creación de un mercado negro de acceso.Es más importante construir capacidades en los menores para un uso seguro y responsable de estas plataformas”, añadió, subrayando que la educación en colegios es una herramienta clave para abordar el problema.

Por su parte, Erick Iriarte, también experto en derecho digital, señaló que “las plataformas ya establecen límites de edad como parte de su autorregulación, pero estas medidas suelen quedarse en lo declarativo. Un menor puede cambiar su fecha de nacimiento y las plataformas no tienen cómo verificarlo sin un sistema más robusto”. Además, considera que esta ley busca convertir esa autorregulación en una obligación legal, exigiendo a las plataformas implementar mecanismos efectivos de validación de identidad.

¿Cómo funciona la nueva ley?

La iniciativa tiene como objetivo proteger a niños y adolescentes del acoso y de problemas potenciales de salud mental. Para lograrlo, crea una nueva categoría llamada “plataformas de medios sociales con restricciones de edad”, que prohíbe a los menores de 16 años, incluidos aquellos con cuentas activas, acceder a estas redes.

Entre las principales redes afectadas se encuentran Facebook, Instagram (ambas de Meta), Reddit, Snapchat, X y TikTok. Sin embargo, plataformas consideradas de bajo riesgo, como YouTube, están exentas de esta normativa.

Las empresas tendrán un año para definir cómo implementarán las restricciones antes de que las sanciones entren en vigor.

Según encuestas citadas por el diario “The New York Times”, la mayoría de los australianos apoya la prohibición. Los grupos de padres han sido ampliamente partidarios, aunque algunos dicen que la ley no va lo suficientemente lejos y debería cubrir más plataformas.

Pero los expertos en medios digitales y algunos grupos de padres, la naturaleza heterogénea de las plataformas que se incluirán y se excluirán en la prohibición hace que no quede claro de qué se pretende proteger a los niños exactamente.

Críticas y detractores

El senador David Shoebridge, del Partido Verde, afirmó que especialistas en salud mental temen que la ley pueda aislar peligrosamente a niños que usan las redes para encontrar apoyo, especialmente en comunidades regionales y entre la población LGTBQI. Shoebridge calificó la medida como “profundamente defectuosa” y “peligrosa”.

Amnistía Internacional también expresó su preocupación, señalando que la ley “no aborda el problema fundamental de que las empresas de redes sociales se benefician de contenidos nocivos, algoritmos adictivos y vigilancia (a los usuarios)”, según un comunicado publicado el jueves.

La norma está concebida de tal forma que la responsabilidad de implementar estas medidas recae en las plataformas, no en los padres o los menores. Montezuma cuestiona este enfoque, indicando que “el alfabetismo digital debería ser una prioridad en las familias y en las escuelas, no algo que dependa solo de las plataformas”. Además, señaló que existen controles parentales efectivos que permiten a los padres restringir ciertos contenidos, aunque no son perfectos”. En Finlandia, por ejemplo, se han implementado programas en las escuelas para enseñar a los niños a detectar noticias falsas, una medida que considera más efectiva que simplemente bloquear el acceso.

Coincide con esta idea Iriarte, al expresar que “no basta con una solución normativa; también es necesario un enfoque formativo. Hay que trabajar en el desarrollo de conciencia y en enseñar a los usuarios, especialmente a los menores, cómo manejar estos entornos digitales”.

Los especialistas consideran que pensar que todo lo que ocurre en redes sociales es negativo es un error. También existen dinámicas positivas y redes de apoyo que se podrían ver afectadas. Además, el control biométrico para implementar estas medidas sería complejo y costoso, habría que cuestionarse si los beneficios justifican los altos costos de implementación.

Por su parte, gigantes tecnológicos como Meta y Google han solicitado al Gobierno australiano más tiempo para desarrollar sistemas de verificación de edad.

Antecedentes en el mundo

Australia no es el primer país que toma medidas de este tipo. En Estados Unidos y la Unión Europea ya existen iniciativas similares.

En EE. UU., 14 fiscales estatales, tanto demócratas como republicanos, han demandado a TikTok por su impacto negativo en la salud mental infantil, acusándola de usar algoritmos adictivos para lucrarse con menores. También se han presentado demandas contra Meta, propietaria de Instagram, WhatsApp y Facebook, bajo argumentos similares.

En marzo, se aprobó un proyecto de ley que prohíbe a menores de 13 años abrir cuentas en redes sociales. Nueva York ha ido más allá con dos leyes: una exige el consentimiento paterno para que menores de 18 años usen algoritmos de recomendación y otra limita la recolección de datos de menores.

En Europa, el Reglamento General de Protección de Datos establece los 16 años como edad mínima para abrir cuentas en redes sociales, aunque permite a los países miembros reducirla hasta los 13 años.

Desde febrero del 2024, la Comisión Europea investiga a TikTok por denuncias de padres que acusan a la plataforma de causar daños graves en la salud mental de sus hijos, incluyendo casos de suicidio.

En España, donde la edad promedio para obtener un teléfono celular es de 11 años, se prevé elevar de 14 a 16 años el límite para abrir cuentas en redes sociales.

Actualmente, el 98,5% de los adolescentes españoles está registrado en alguna red social, y el 83,5% en tres o más.

En julio del 2024, Puerto Rico estableció los 18 años como la edad mínima para abrir una cuenta en redes sociales.

Compartir
Exit mobile version