Los sistemas y programas de inteligencia artificial (IA) son capaces de realizar tareas propias de la inteligencia humana, como el razonamiento, el aprendizaje (aprendizaje automático), por tanto, comprender el lenguaje natural y resolver problemas. Ya estás presente en todos los ámbitos de nuestra vida, desde las aplicaciones habituales de compra o la visualización de películas hasta el desarrollo de nuevas fórmulas farmacéuticas o la organización de procesos de producción. Permite automatizar tareas, tomar decisiones, mejorar la eficiencia y aportar soluciones en campos tan diversos como la medicina, la industria, la robótica o los servicios financieros. La ley europea sobre IA comienza ahora a aplicarse paulatinamente con el objetivo de garantizar su desarrollo con criterios éticos y legales. Estas son 10 respuestas a los chavales que generan una iniciativa pionera en el mundo:
¿Por qué Europa es la regla?
La inteligencia artificial aporta beneficios sociales, promueve el crecimiento económico y mejora la innovación y la competitividad. Estas aplicaciones, en general, causan poco o ningún riesgo. Pero otros pueden generar situaciones contrarias a derechos y libertades, como el uso de inteligencia artificial para generar imágenes pornográficas no deseadas o el uso de datos biométricos para clasificar a las personas en función de su apariencia o su aplicación en procesos contractuales, educativos, sanitarios o de implementación de políticas predictivas. .
¿Cuáles son las categorías de riesgo?
Éxito mínimo: la mayoría de los sistemas entran en esta categoría. Para estas aplicaciones, el proveedor, de forma voluntaria, puede adoptar los requisitos éticos y adherirse a los códigos de conducta. Si se considera la IA de uso general, se entrena con una potencia de computadora de 10²⁵ operaciones de coma flotante por segundo (FLOPS, por sus siglas en inglés). FLOPS es el medio de funcionamiento de una computadora y la Comisión considera la dimensión mencionada como la sombra de posibles riesgos sistémicos. La UE cree que ChatGPT-4, OpenAI y Gemini Google DeepMind podrían quedar a la sombra y podrían revisarse mediante un acto delegado.
Alto riesgo: Son modelos que potencialmente pueden afectar la seguridad de las personas o sus espaldas. La lista está abierta a revisión permanente, pero la norma excluye los ámbitos de aplicación incluidos en esta categoría, como las infraestructuras críticas de comunicaciones y administrativas, la formación, la gestión de personal o el acceso a servicios esenciales.
Soy inadmisible: Los sistemas que se incluyen en esta categoría están prohibidos porque atentarán contra los derechos fundamentales. En esta lista están los de clasificación o puntuación social, los que demuestran la vulnerabilidad de las personas y los de identificación de raza, opinión, creencia, orientación sexual o reacción emocional. Se exceptúa su uso policial para perseguir 16 delitos concretos relacionados con la desaparición de personas, secuestros, negociaciones y explotación sexual, prevención de daños a la vida o la seguridad o respuesta al peligro actual o previsible de un ataque terrorista. En caso de emergencia, se podrá autorizar un uso excepcional, pero si se deniega, se deberán ignorar todos los datos e información. En circunstancias que no sean urgentes, debe ir precedido de una evaluación previa de los impactos desde la perspectiva de los derechos fundamentales y debe notificarse a la autoridad de vigilancia del mercado o a la autoridad de protección de datos correspondiente.
Soy específico en materia de transparencia: consulte los problemas de manipulación que surgen con las burbujas de apariencia real (profundo) o con aplicaciones conversacionales. La norma obliga a dejar una forma inequívoca para que el usuario se encuentre ante una creación artificial o interactúe con una máquina.
Riesgo sistémico: La norma tiene en cuenta que el uso generalizado de sistemas de gran capacidad puede causar daños masivos o de gran alcance, como en el caso del cibertaque o propagación de un bulbo o sesgo financiero.
¿Tienes que acudir en algún momento a la justicia?
Todos los agentes, tanto públicos como privados, que utilicen sistemas de IA dentro de la UE deben ser respetados por la ley, tanto europea como europea. Afecta a los proveedores de programas, a quienes los aplican y los compran aquí. Todos deben usar velo porque su sistema es seguro y cumple con la ley. En el caso de sistemas de alto riesgo, antes y después de su comercialización o puesta en servicio, los sistemas deberán someterse a una evaluación de conformidad para garantizar la calidad de los datos, la trazabilidad, la transparencia, la supervisión humana, la precisión, la seguridad informática y la solidez. Esta evaluación deberá repetirse si se modifica sustancialmente el sistema o sus finalidades. Los sistemas de IA de alto riesgo utilizados por autoridades o entidades que actúan en su nombre también deben registrarse en una base de datos pública de la UE, a menos que dichos sistemas exploten efectos políticos y migratorios. Los proveedores de modelos con riesgos sistémicos (ciberpotencia superior a 10²⁵ FLOPS) tienen la obligación de evaluarlos y mitigarlos, notificar incidentes graves, realizar pruebas y evaluaciones avanzadas, garantizar la ciberseguridad y facilitar información sobre los modelos de consumo eléctrico.
¿Qué necesita incluir en una evaluación de cumplimiento?
Los procesos, el período y frecuencia de uso, las categorías de personas físicas y colectivos afectados, los riesgos específicos, las medidas de vigilancia humana y el plan de implementación en caso de materialización de riesgos.
¿Cómo sabes cómo experimentar los efectos de tu producto?
Las grandes empresas ya cuentan con sistemas adecuados para adaptarse a la norma. Para edades pequeñas y que utilizan sistemas de código abierto, la ley crea espacios controlados de pruebas y ensayos en condiciones reales, que proporcionan un entorno controlado para probar tecnologías innovadoras durante seis meses ampliables a otros. Puede estar sujeto a inspección.
¿Están estos exentos?
Los proveedores de plantillas gratuitas y de código abierto están llenos de obligaciones relacionadas con la comercialización, pero no de evitar riesgos. Impacta negativamente la norma sobre actividades de investigación, desarrollo y creación de prototipos o desarrollos destinados a usos de defensa o seguridad nacional. Los sistemas de IA de uso general deberán cumplir requisitos de transparencia, como el desarrollo de documentación técnica, el cumplimiento de la legislación de derechos de autor de la UE y la difusión de planes de estudio detallados sobre el contenido utilizado para aprender el sistema.
¿Quién espera el cumplido?
Se han creado una Oficina Europea de Inteligencia Artificial, un Consejo Asesor Científico y autoridades nacionales de supervisión para el seguimiento de los sistemas y la autorización de aplicaciones. Las agencias y oficinas de AI deben tener acceso a la información necesaria para cumplir con sus obligaciones.
¿Cuándo será plenamente aplicable la Ley de IA?
Luego de su adopción, la Ley de IA entrará en vigor dentro de los 20 días siguientes a su publicación y será plenamente aplicable en 24 meses, de manera gradual. En los primeros seis meses, los estados miembros deben eliminar los sistemas prohibidos. En un año, se impondrán mandatos gubernamentales para la IA de uso general. En dos años, todos los sistemas deberán ajustarse.
¿Cuáles son las sanciones por infracciones?
Cuando se comercialicen o utilicen sistemas de inteligencia artificial que no cumplan los requisitos del reglamento, los Estados miembros deberán establecer sanciones efectivas, proporcionales y disuasorias para las infracciones y notificarlas a la Comisión. A muchos se les impiden hasta 35 millones de euros o el 7% del volumen de negociación anual a escala global del ejercicio anterior, hasta 15 millones de euros o el 3% del volumen de negociación y hasta 7,5 millones de euros o el 1,5% del volumen de negociación. . En cada categoría de infracción, el seguimiento será el menos importante para las pirámides y el más alto para otras empresas.
¿Qué se puede hacer con la víctima de una infracción?
La Ley de IA ha previsto el derecho a presentar una denuncia ante una autoridad nacional y facilitar que las personas puedan reclamar una indemnización por los daños causados por sistemas de inteligencia artificial de alto riesgo.
Puedes seguir en EL PAÍS Tecnología es Facebook Sí X o escribe aquí para recibirnos boletín periódico.
Regístrate para seguir leyendo
lee sin limites
_