La ley de inteligencia artificial abre una brecha entre las grandes empresas preparadas y las recurrentes en código abierto | Tecnología

La ley de inteligencia artificial abre una brecha entre las grandes empresas preparadas y las recurrentes en código abierto |  Tecnología
La ley de inteligencia artificial abre una brecha entre las grandes empresas preparadas y las recurrentes en código abierto |  Tecnología

La inteligencia artificial (IA) es un territorio único. La aprobación de la norma europea (AI Act) se aplicará progresivamente durante los próximos dos años a todo el sistema utilizado en la UE o afectará a los ciudadanos y será de cumplimiento obligatorio para proveedores, implementadores o importadores. En este sentido, la ley abre una brecha entre las grandes empresas, que han previsto las limitaciones a su desarrollo, y las entidades menores que deberían desplegar sus propios modelos a partir de las crecientes aplicaciones del código abierto (fuente abierta). Esto es lo último, si no tiene la capacidad de examinar sus sistemas, encontrará una lista de pruebas reglamentarias (salvadera) para desarrollar y entrenar IA innovadora antes de su introducción en el mercado. Pero su disponibilidad deja dudas sobre su capacidad para controlar sus usos, que se extienden a la creación de pornografía no autorizada y campañas antifraude.

“Nos aseguramos de que la tecnología de IA que creamos sea responsable y ética desde el principio. IBM ha comenzado a trabajar con organismos gubernamentales de todo el mundo para promover regulaciones inteligentes y efectivas, así como para proporcionar barreras de seguridad a la sociedad”, asegura Christina Montgomery, vicepresidenta y directora de privacidad y confidencialidad de la multinacional.

En esta apreciación coincide Pilar Manchón, directora de estrategia de investigación en IA de Google y asesora del comité asesor del gobierno español, durante un encuentro en la Universidad de Sevilla. “Necesitamos regulación porque la IA es extremadamente importante para no conservarla. Así es como se desarrolla la inteligencia artificial, pero así es como se hace bien”. La investigación resume los premios incluidos en los Principios de la IA: “Es muy fácil de resumir: ni cosas malas ni cosas buenas, y vas a hacer algo, asegúrate de que va a tener un impacto positivo en el comunidad, en la sociedad, en la comunidad científica. Y, si potencialmente puede hacer algo que no es para lo que lo usa o para lo que lo diseñó, asegúrese de tomar todas las precauciones necesarias y mitigar los riesgos. Se bueno, innova, sé audaz, pero sé responsable”.

El grupo integrado de Google afirma que esta visión coincide con la de otras multinacionales. En este sentido, el presidente de Microsoft, Brad Smith, dijo en una reciente entrevista en EL PAÍS: “Necesitamos un nivel de regulación que garantice la seguridad”. Brad afirma que la ley europea le hizo “mirar las normas de seguridad e imponer una base para estos modelos”.

Del mismo modo, Jean-Marc Leclerc, jefe de Gobierno y regulador europeo de IBM, tiene a su disposición la ley europea, para que amplíe y desvíe el conjunto estable de entidades oficiales que hacen uso de la implementación ética de sistemas, como antes de la regulación. Pero advierte: «Muchas de las organizaciones que pueden encontrarse en el ámbito de aplicación de la ley de IA aún no han establecido la gobernanza de sus infraestructuras para reparar el cumplimiento en sus procesos».

La cautela de IBM responde a la proliferación de herramientas de código abierto, menores si no gratuitas y también efectivas. Sopesa tus limitaciones para formarte, por favor intenta ayudar a las grandes empresas y ofrécelas gratuitamente. El pasado, escrito por un ingeniero de Google que esta empresa no considera oficialmente la opinión particular del investigador, advierte que la IA se está escapando del control de las grandes empresas.

La empresa emergente Hugging Face ha lanzado durante un año una alternativa de código abierto a ChatGPT, la popular aplicación conversacional de OpenAI. “No abandonaremos la suerte por la IA de código abierto”, explicó Julien Chaumond, cofundador de esta empresa. Al mismo tiempo, Stability AI lanza su modelo y la Universidad de Stanford también se integra con su sistema Alpaca.

«Es un esfuerzo de la comunidad global para aprovechar el poder de la inteligencia artificial en la conversación, sacrificando las manos de unas pocas grandes empresas», dice el investigador de IA y youtuber Yannic Kilcher en un vídeo de presentación de Open Assistant, una de estas plataformas.

Joelle Pineau, directora de Meta AI y profesora de la Universidad McGill, defendiendo revisión del MITsistemas de código abierto: “Es en gran medida un foco de libre mercado, del tipo moverse rápido, construir cosas. El número de personas que pueden contribuir al desarrollo de la tecnología está verdaderamente diversificado y esto significa que no sólo investigadores o emprendedores pueden acceder a estos modelos.»

Pero la propia Pineau admite los riesgos de estos sistemas, si evaden los criterios éticos y regulatorios que establecen la ley, fomentan la desinformación, los prejuicios y el discurso de odio o los utilizan para fabricar programas dañinos. “Hay que lograr un equilibrio entre transparencia y seguridad”, reflexionó Pineau.

“No soy una evangelista del derecho abierto”, afirma Margaret Mitchell, especialista en ética de Hugging Face, en la misma publicación. “Veo razones por las que estoy seguro de que tienes muchos sentimientos”. Mitchell señala la pornografía no permitida (“Es uno de los principales usos de la IA para crear imágenes”, admite) como ejemplo de la desventaja de hacer que los modelos poderosos sean ampliamente accesibles.

Respecto al uso de estos sistemas por parte de los viajeros, Bobby Ford, jefe de seguridad de Hewlett Packard Enterprise, advirtió durante la reunión CPX celebrada en Viena: “Mi mayor preocupación respecto a esto en lo que se refiere a la IA generativa es que la adopción de tecnología por parte del enemigo produce un ritmo más rápido que el nuestro. El oponente tiene mucho tiempo para probar la IA. Si no hacemos lo mismo con los defensores de nuestros ataques, la guerra es asimétrica. Cualquier cosa que tenga acceso a Internet y una computadora puede ser un hacker [pirata informático]”.

Maya Horowitz, vicepresidenta de investigaciones de la firma de ciberseguridad Check Point, es la más optimista: “Los defensores están utilizando la IA mejor que los actores de defensa. Tenemos profesores de motores de seguridad fundamentales en IA, mientras que los ataques todavía se están experimentando hoy, tratando de comprender cómo se pueden utilizar. Hay algunas cosas. Lo más popular es escribir correcciones electrónicas. suplantación de identidad [engaño mediante suplantación]. Incluso experimentando con llamadas de voz falsas. Pero todavía no estás creando código malicioso con esta tecnología. Ni siquiera puedes recurrir a la IA para escribir código que puedas usar fácilmente. Tienes que tener un codificador que separe lo que has hecho. Creo que nuestro anuncio está ganando esta vez”.

Puedes seguir en EL PAÍS Tecnología es FacebookX o escribe aquí para recibirnos boletín periódico.

Regístrate para seguir leyendo

lee sin limites

_