Este miércoles se vota en la Eurocámara el Reglamento Europeo de Inteligencia Artificial (IA), acordado el 8 de diciembre por la Comisión, el Consejo y el Parlamento Europeo durante una maratónica sesión de negociación de 38 horas, la más larga en la historia de la UE. La redacción final de la legislación, que no se ha producido hasta esta semana, concluyó que ya podría haber entrado en vigor en diciembre, cuando se constató el acuerdo provisional, que también requiere la ratificación definitiva por parte de los Estados miembros antes de que pueda entrar en vigor. Fuerza: el reglamento marca el camino de lo que se puede y lo que no se puede hacer, pero no concretamente cómo se deben resolver cuestiones claves, como la defensa de los derechos de autor.
La legislación se considera la primera regulación sobre la IA que protege las libertades y los derechos básicos (China puede marchar con su propia ley en el pasado). En el último debate antes de la votación, el comisario de Mercado Interior, Thierry Breton, iniciador de la legislación, defendió los martillos de Estrasburgo como «la primera regulación equilibrada de la IA del mundo destinada a proteger los excesos del mal uso». de la IA, pero promoviendo la innovación al mismo tiempo”. La legislación, sobre la que el bretón insistió en pedir consejo al alcalde de la Eurocámara, suponía un “compromiso histórico que resiste el paso del tiempo”.
El reglamento establece requisitos y obligaciones separados para las aplicaciones de IA en función de los riesgos que plantea su uso. La mayoría de las amenazas, como los filtros de spam o los detectores de texto duplicado, se pueden utilizar sin restricciones. Se trata del llamado sistema de riesgo limitado y el único requisito que se impone a los proveedores es informar a los usuarios que están manejando una herramienta de IA.
La estrategia de negociación consiste en determinar qué riesgos son inaceptables y, por tanto, están totalmente prohibidos; y que son muy riesgosos, esto implica una supervisión permanente. Entrando en la primera categoría de sistemas «que transmiten la conciencia de una persona o técnicas deliberadamente manipuladoras», los que explotan sus vulnerabilidades o los que inflaman las emociones, raspan las opiniones políticas de las personas.
Los enumerados en el epígrafe anterior ponen en riesgo los sistemas de identificación biométrica remota, que un gran sector del Parlamento quisiera prohibir definitivamente, los sistemas de categorización biométrica o el reconocimiento de emociones. También sistemas que afectan a la seguridad de infraestructuras críticas y a las relaciones con la educación (evaluación de comportamiento, sistemas de admisión y exámenes), el trabajo (selección de personal) y la prestación de servicios públicos esenciales, la aplicación de la ley o la gestión migratoria.
El documento de 460 páginas no incorpora sorpresas significativas, pero consta que continúa sin concretar la indefinición que se ha producido en algunos de los casos más sensibles de la legislación. “Es una regulación muy bien ejecutada. Como herramienta jurídica, requiere más aclaración. Hay definiciones muy ambivalentes, algunas de ellas coherentes con otras normativas”, afirma Lorena Jaume-Palasí, experta en ética y filosofía del derecho aplicada a la tecnología y consultora del Parlamento Europeo en temas relacionados con la IA. «Si se ve eso, como pasó con el Reglamento General de Protección de Datos (RGPD), necesitaremos jurisprudencia para saber qué metodología se va a implementar todo esto».
Identificación biométrica: en casos excepcionales
Uno de los temas más controvertidos, que culminaron en varias horas de negociaciones, es la regulación de los sistemas de identificación biométrica remota en tiempo real. Por ejemplo, entraría en esta categoría la extensa red de cámaras de reconocimiento facial repartidas por las grandes ciudades chinas y que permiten localizar cualquier cosa en apenas unos minutos. Los primeros errores del reglamento europeo de IA fueron muy restrictivos con esta tecnología.
En la última versión del documento, sin embargo, se fijan una serie de supuestos entre los que se pueden utilizar, siempre sin autorización judicial: “La búsqueda de determinadas víctimas de un delito, incluidas personas desaparecidas; daños determinados a la vida o seguridad física de personas naturales o daños a intento de terrorismo; y la ubicación o identificación de los perpetradores o sospechosos [una lista de 32] infracciones penales».
El texto final, además, incluye una excepción a las excepciones: “En casos de urgencia debidamente justificados, si es posible utilizar dichos sistemas sin el registro en la base de datos de la UE, siempre que este registro se realice sin demora indebida. […] Mis Estados miembros notificarán estas normas a la Comisión, a más tardar 30 días después de su adopción”. Se dice que las autoridades pueden saltarse la legislación y aplicarla, incluso si luego dicen que el uso del sistema fue inadecuado.
“Cuantas más excepciones tenga una prohibición, menos durará, p. Lo que estamos viendo es que estamos naturalizando tecnologías que hay que discutir”, opina Jaume-Palasí.
Durante el último debate en la Eurocámara, los principales responsables de negociar la legislación defendieron, sin embargo, que el Reglamento IA es una herramienta que permitirá a los ciudadanos utilizar estas nuevas tecnologías sin vulnerar sus derechos fundamentales.
Comentarios del autor: protegidos, pero sin concreción.
Otra de las cuestiones regulatorias que más atención han resuelto es cómo proteger los derechos de autor, consagrados en la UE a través de 13 directivas y dos reglamentos. En EE UU hay una serie de peticiones colectivas interpuestas contra grandes plataformas para utilizar, sin permiso, creaciones de particulares para introducir modelos de IA; el resultado de estos procesos puede marcar el futuro de la IA generativa (aquella que genera textos, imágenes, vídeos o música a partir de las instrucciones dadas por el usuario).
El Reglamento europeo de IA repite extensamente en su artículo que todos los sistemas deben garantizar el cumplimiento de los derechos de autor, pero no dice cómo, más que será responsabilidad de la AI Office, organismo que supervisará el cumplimiento de los derechos de autor. regulaciones. Según Breton, este taller intentará funcionar lo antes posible una vez que el reglamento entre en vigor y contará con “el talento necesario para aplicar la implementación de la ley y servir como un centro de experiencia global en IA”.
En cuanto a los derechos de autor de los contenidos utilizados para aprender los algoritmos ya en funcionamiento, “la regulación es suficiente para garantizar y aportará mucha seguridad jurídica a los ciudadanos. Más que una marca legal es una declaración de principios y valores democráticos”, afirma Iban García del Blanco, eurodiputado socialista y negociador de la ley de IA. ”En algunos casos, la Comisión tenderá a desarrollar más de 20 actos derivados de estas disposiciones para implementarlas concretamente. Por ejemplo, en el ámbito de los derechos de autor: desarrollar una serie de propuestas de modelos para que las empresas se separen en qué sentido tienen que hacer esas declaraciones de transparencia sobre los contenidos que utilizaron en el aprendizaje de los modelos”, explica.
Esto no impide, dice García del Blanco, que en el futuro haya una serie de solicitudes y que se estén estableciendo criterios a través de la jurisprudencia. Jaume-Palas recuerda que esto es lo que pasó con el reglamento de protección de datos: “Los primeros errores están surgiendo ahora, cinco años después de su entrada en vigor”.
Puedes seguir en EL PAÍS Tecnología es Facebook Sí X o escribe aquí para recibirnos boletín periódico.