La Comisión Europea abrió hoy un procedimiento formal para evaluar si Meta, matriz de Facebook e Instagram, pudo haber violado la Ley de Servicios Digitales (DSA) y no haber protegido adecuadamente a los usuarios menores. Más concretamente, Bruselas teme que los algoritmos de las redes sociales estrella del Meta “puedan estimular adicciones al comportamiento infantil, así como los llamados efectos ‘madriguera de conejo’”, es decir, que validen como reales los montajes y objetos. que circulan por sus redes.
«No estamos seguros de que Meta sea suficiente para cumplir las obligaciones de las dietas destinadas a mitigar los efectos negativos sobre la salud física y mental de los jóvenes europeos», afirmó hoy el Comisario Europeo de Mercado Interior, Thierry Bretone. La compañía respondió en un comunicado que su intención es que los jóvenes tengan experiencias en línea seguras y apropiadas para su edad. “Pasamos una década implementando más de 50 políticas y políticas diseñadas para protegerlos. Esta es una red que afecta a todos los sectores y estamos ansiosos por compartir los detalles de nuestro trabajo con la Comisión Europea”.
🚨Hoy abrimos formalmente #DSA investigación contra #Medio.
No estamos convencidos de que Meta haya hecho lo suficiente para cumplir con sus obligaciones DSA: mitigar los riesgos de efectos negativos en la salud física y mental de los jóvenes europeos en sus plataformas Facebook e Instagram. pic.twitter.com/WxPwgE5Opc
— Thierry Bretón (@ThierryBreton) 16 de mayo de 2024
La apertura del procedimiento concluyó con el análisis preliminar de la información de evaluación de riesgos enviada por Meta en septiembre de 2023, según lo requerido por la DSA, y con las respuestas brindadas por la empresa luego de solicitudes formales de información de la Comisión sobre protección de menores y la Metodología de evaluación de riesgos.
Bruselas sospecha que el propio diseño de Facebook e Instagram puede «potenciar las debilidades e inexperiencia de los menores y provocar comportamientos adictivos». La Comisión también quiere garantizar que Meta disponga de herramientas adecuadas para la verificación de la edad. Sus investigaciones iniciales establecen que pueden “no ser razonables, proporcionadas y efectivas”.
En tercer lugar, las autoridades europeas quieren verificar que las metaplataformas garanticen un alto nivel de privacidad, seguridad y protección de los menores.
El posible daño que causan las plataformas para el bienestar mental de los menos es la principal quebrader de cabeza cuando se enfrenta a los directivos de la empresa que dirige Mark Zuckerberg. Lo que hasta 2021 era sólo una sensación extendida entre los padres de los usuarios jóvenes ha ganado peso ante el alcance de las revelaciones de Frances Haugen, un ejemplo de cómo Facebook filtra miles de documentos que las directivas de Instagram probablemente conocían sobre los efectos nocivos de las redes sociales entre hombres y mujeres. .
Meta se encuentra en EE UU con una cascada de peticiones de familias afectadas y denuncia los Impuestos Generales de 41 Estados al considerar que Facebook e Instagram son «aprovechan del dolor de los niños» para hacer negocios. El resultado de este tsunami de pleitos podría provocar un cambio radical en la apariencia y dinámica de las redes sociales.
La segunda investigación en un mes
La Comisión examinará exhaustivamente si Meta cumple o no con estos preceptos de la DSA. La compañía fue incluida en abril de 2023 entre las grandes plataformas que entran en la jurisdicción de la DSA (aquellas que tienen más de 45 millones de usuarios activos mensuales en la UE).
El procedimiento anunciado hoy finaliza con la apertura del 30 de abril debido a la falta de control sobre los contenidos políticos antes de las elecciones europeas y sobre la «publicidad comprometida». Brusellas lleva meses aconsejando a las grandes plataformas que tomen precauciones para que el cómic de junio no se convierta en un coleccionista de desinformación e injerencias extranjeras.
“La Comisión sospecha que Meta no cumple las obligaciones del reglamento relativas a la lucha contra la difusión de anuncios atractivos, campañas de desinformación y comportamientos no auténticos coordinados en la UE. La proliferación de historias contenidas puede suponer un riesgo para el discurso cívico, los procesos electorales y los derechos fundamentales, así como para la protección de los consumidores», afirma el Reglamento europeo en un comunicado de prensa oficial.
Puedes seguir en EL PAÍS Tecnología es Facebook Sí X o escribe aquí para recibirnos boletín periódico.
Regístrate para seguir leyendo
lee sin limites
_