Un jugador de poker tiene malas cartas pero tiene la apuesta mayor. El resto de jugadores se apoyan en el faro y otorgan la victoria. Un comprador quiere negociar un producto, pero no muestra interés. Primero mira otras cosas y pregunta. Pienso, sin mucha intención, más porque realmente quiero conseguir un precio más bajo. Estos ejemplos reales no son humanos, sino modelos creados con inteligencia artificial (IA). Un nuevo artículo científico titulado Los desafíos de la IA: un estudio de ejemplos, riesgos y posibles soluciones en la revista Modelos analiza casos conocidos de modelos que han mencionado, simulado o halagado a humanos para conseguir sus objetivos. Los robots no son conscientes de nada y buscan por sí solos la mejor manera de conseguir lo que quieren, pero los autores creen que estos niños incipientes esperarán excelentes resultados si la legislación no limita las opciones de la IA.
“En este momento, lo que mi alcalde teme sobre la participación de la IA es que una IA superinteligente utilice de forma autónoma sus capacidades de participación para formar una coalición de aliados humanos cada vez mayores y posiblemente utilice esta coalición para tomar el poder, en la investigación en lugar de un objeto misterioso que No se supo hasta después del eco”, dice Peter S. Park, investigador postdoctoral en Seguridad Existencial en IA en el Instituto Tecnológico de Massachusetts (MIT) y uno de los autores principales del artículo.
Este gran miedo de Park es perfecto, pero ya lo hemos visto en una IA programada para un juego. Meta anunció en 2022 que su modelo Cicerone había derrotado a sus rivales humanos en el Diplomaciaun juego de estrategia que mezcla los detalles de RiesgoEl póquer y el programa de televisión. Sobrevivientes, en palabras de la empresa. Como en la diplomacia real, uno de los recursos es mentir y disimular. Los empleados de Meta advirtieron que cuando Cicerón mintió, los jugadores se sintieron peor y planearon que fuera más honesto. Pero no fue así en realidad.
Peter S. Park y sus coautores también pudieron demostrar la honestidad de Cicerón. “Correspondía a los autores del artículo corregir la falsa afirmación de Meta sobre la suprema honestidad de Cicerón que había sido publicada en Ciencia». El contexto político del juego. Diplomacia Esto es mucho menos riesgoso que los contextos reales relacionados con sus elecciones y conflictos militares. Pero seamos realistas, dice Park: “Primero, Meta entrenó con éxito su IA para superar el desafío del poder político, incluso en un juego. En segundo lugar, Meta intentó, pero fracasó, enseñar IA para poder ser honesta. Y en tercer lugar, abordamos a científicos externos independientes, en gran parte de los cuales desacreditamos la falsedad de Meta de que su IA que buscaba poder era supuestamente honesta. La combinación de estos tres fondos es, en mi opinión, motivo suficiente de preocupación”, según Park.
como ser en realidad
Los investigadores creen que existen varias modalidades en modelos específicos de IA que han demostrado que es posible participar de manera efectiva: puedes manipular como en la diplomacia, amar con decisión, eso tendrá algo que saber sobre lo que no, hacerlo como en el póquer, recuerda negociaciones, matar a la muerte para evitar la detección o involucrar a auditores humanos para asegurarse de que la IA hiciera lo que se suponía que debía hacer cuando no lo hizo.
No todos los tipos de compromiso implican este tipo de conocimiento. En ocasiones, y sin querer, los modelos de IA resultan “halagadores” y simplemente siguen la opinión que cada usuario expresa en sus preguntas: “La adulación podría llevar a creencias falsas persistentes en humanos. Las declaraciones halagadoras están diseñadas específicamente para atraer al usuario. Cuando un usuario encuentra estas respuestas, es menos probable que las verifique. Este amplio cuadrado podría dar lugar a creencias verdaderas”, escribieron los autores en el artículo.
Nadie sabía con certeza cómo hacer que estos modelos no interactuaran, dice Park: «Con nuestro nivel actual de comprensión científica, Nadie puede aprender de manera confiable grandes patrones lingüísticos para no interactuar». Además, hay muchos ingenieros en muchas empresas que se dedican a crear modelos distintos y más potentes. No todo el mundo tiene el mismo interés inicial en la honestidad de sus robots: “Algunos ingenieros todavía se toman muy en serio la IA, hasta el punto de adoptar medidas de seguridad en la IA o implementarla. Otros ingenieros no han dejado que esto se tome en serio y creen que aplicar un procedimiento de prueba y error será suficiente para avanzar hacia una IA segura y muda. Y hay otros que ni siquiera han aceptado que existe el riesgo de utilizar la IA”, afirma Park.
Lo usarán para aumentar su poder.
En el artículo se compara la IA superinteligente con la forma en que los ricos aspiran a obtener nuevas cuotas de poder: “A lo largo de la historia, los actores ricos han utilizado los juegos para aumentar su poder”, escribe. La forma en que Park deja claro para comprender mejor cómo la subred puede ser el papel de una IA que quiere ganar poder: “Las empresas de IA están en una carrera fuera de control para crear una IA superinteligente que supere a los humanos en la mayoría de los aspectos económicos. y capacidades estratégicamente relevantes. Una IA de este tipo, al igual que los llamamientos, habría sido experta en llevar aviones a grandes plazas para realizar servicios de investigación sobre diversos sectores de la sociedad, como influir en la política con información incompleta o falsa, financiar información errónea en los medios o investigadores, y evadir responsabilidades utilizando las leyes. De la misma manera que el dinero se traduce en poder, muchas capacidades de la IA, como los juegos, también se traducen en poder”, explica Park.
Ninguno de los académicos participa en este nivel de miedo. El profesor de la Universidad de Edimburgo, Michael Rovatsos, en declaraciones a SMC España, cree que los peligros de amplio alcance son excesivamente especulativos: “No estoy tan convencido de que la capacidad de participar cree un riesgo de pérdida de control sobre los sistemas de IA, si se adoptan las medidas adecuadas”. se aplica rigor en su diseño; el verdadero problema es que actualmente no es así y los sistemas se lanzan al mercado sin problemas de seguridad. El debate sobre las implicaciones a largo plazo de las capacidades involucradas en el artículo es muy especulativo y tiene muchas suposiciones adicionales sobre cosas que pueden suceder o no”.
La solución que plantea el artículo para que estos sistemas no superen a sus creadores es la legislación. La UE asigna a cada sistema de IA uno de cuatro niveles de riesgo: mínimo, limitado, alto e inaceptable. Los sistemas de alto riesgo están prohibidos mientras que los sistemas de alto riesgo están sujetos a requisitos especiales. “Sostenemos que el actor de IA presenta una amplia gama de riesgos para la sociedad, por lo que debe ser tratado por defecto como de alto riesgo o riesgo inaceptable”, dice Park.
Puedes seguir en EL PAÍS Tecnología es Facebook Sí X o escribe aquí para recibirnos boletín periódico.