Melanie Mitchell: “La inteligencia artificial desaparecerá cuando se incorpore a robots que experimenten el mundo como niños” | Tecnología

¿Estamos exagerando el potencial de la inteligencia artificial (IA)? ¿A estas alturas es inteligente? ¿Pasarás unos días en Alcánzar con el ser humano? Estas son algunas de las preguntas que Melanie Mitchell (Los Ángeles, 55 años) se hace en su libro Inteligencia artificial. Guía para pensadores serios., que Captain Swing publica este mes. Su respuesta es tajante: estamos a muchas ligas de crear una superinteligencia, porque algunas empresas han dicho lo contrario. Una de las razones fundamentales es que las máquinas no están bien como nosotros. Puedes hacer casi a cualquiera mejor que nadie, pero entiendes el mundo peor que un niño de un año.

Mitchell trae consigo un contexto fundamental para calibrar el fenómeno de la IA, una tecnología instalada en el debate público desde que aparecieron herramientas como ChatGPT hace dos años. Políticos, empresarios y académicos han advertido recientemente sobre los peligros de estos sistemas que han confundido al mundo con los elaborados textos que son capaces de generar y las imágenes y vídeos hiperrealistas que pueden producir.

El Instituto Davis de Complejidad de Santa Fe y el profesor de la Universidad Estatal de Portland describen en su trabajo cómo funcionan los sistemas de IA más avanzados y cómo contrastan con el razonamiento humano. Conclusión: Aspectos clave como la intuición o el conocimiento del entorno son, de momento, ineludibles para cualquier máquina. Mitchell se suma a EL PAÍS para realizar una videollamada desde su casa en Santa Fe, Nuevo México.

PEDIDO. ¿De qué es capaz la IA hoy?

RESPUESTA. Ha dado un gran salto en sus capacidades desde hace un par de años con el legado de la IA generativa, que incluye aplicaciones como ChatGPT o Dall-E. Pero estos sistemas, aunque pueda parecerlo, no tienen el mismo tipo de comprensión del mundo que nosotros. Por eso, a veces hacía algo extraño o inventaba algo. Debido a la confiabilidad, existen una serie de limitaciones que son difíciles de predecir. Entonces creo que si estos sistemas pueden ser muy útiles y usarse todo el tiempo, debemos tener cuidado con la confianza que depositamos en ellos. Especialmente si no hay supervisión humana.

PAG. ¿Por qué razón?

r. Puede cometer errores graves. Un claro ejemplo son los coches autónomos. Una de las razones por las que hoy no estamos entre nosotros es que caen donde un humano rara vez lo hace, como no identificar una piedra o un obstáculo. Otro ejemplo son los sistemas automáticos de reconocimiento facial. Las máquinas son extremadamente buenas para identificar roles en imágenes, pero se ha demostrado que son personas a la hora de identificarse con personas de piel más oscura o con mujeres. Con ChatGPT, hemos visto innumerables casos en los que inventa lo que dice.

La profesora Mitchell utiliza el diario de herramientas de IA, pero reconoce sus limitaciones y siempre comprueba sus resultados.Kate Joyce

PAG. ¿El auge de la IA generativa ayuda o perjudica el desarrollo de la disciplina?

r. En cierto modo, esto bombo publicitario aumenta las expectativas de la gente y esto provoca decepción. Ha tenido éxito muchas veces a lo largo de la larga historia de la IA. En las décadas comprendidas entre 1950 y 1960, si decidimos poseer máquinas equipadas con inteligencia humana por un corto tiempo. Esto no sucedió. Llegó lamado invierno de la IA: se obtuvo financiación para investigación y quebraron negocios. Ahora estamos en un período de muchas expectativas. La verdadera pregunta es ¿cuándo nos realizaremos las predicciones de los optimistas o nos entregaremos a otro gran engaño? Es difícil de predecir.

PAG. Sólo han pasado tres años desde que el futuro es el metaverso. Hoy ya nadie, cuéntanos sobre ello. ¿Crees que puede pasar algo parecido con la IA?

r. Continuamente se introducen grandes innovaciones tecnológicas: se produce una especie de gran exageración publicitaria, luego no se cumplen las expectativas y se engaña a la gente y, finalmente, la tecnología se vende rápido. Este desarrollo resultó útil, pero no tan brillante como la gente esperaba. Probablemente esto es lo que sucede con la IA.

PAG. Usted sostiene que los sistemas de IA carecen de comprensión semántica o sentimiento común y, por lo tanto, no pueden ser verdaderamente inteligentes. ¿Crees que esto cambiará pronto?

r. Es posible. No hay ninguna razón por la que no podamos desmantelar un coche como este. La pregunta es: ¿cómo llegamos allí? ChatGPT ha sido entrenado con todos los libros y textos digitales disponibles, así como con todos los videos e imágenes de Internet. Pero hay cosas que tienes que ver con sentimiento y conocimiento comunes y que no están codificadas en lenguaje ni datos: sólo si puedes aprenderlas a través de la experiencia. Quizás las máquinas no podrán pensar en una forma más humana hasta que experimenten el mundo como lo hemos hecho nosotros. Existe un gran debate en la disciplina de la IA al respecto. Sospecho que el gran salto se producirá cuando la máquina no sólo se haya entrenado pasivamente en el lenguaje, sino que también haya experimentado activamente el mundo como lo hacía un niño.

La historia de la IA ha demostrado que nuestras intuiciones sobre la vida y la inteligencia en el menú están equivocadas, que en realidad todo es mucho más complejo de lo que pensábamos

PAG. Cuando estoy en forma de robot.

r. Sí. Una IA colocada en un robot podría tener el mismo tipo de educación o desarrollo que un niño. Es algo que observó en la década de 1950 Alan Turing, uno de los padres de la informática. Esta idea de la cobra la escuché ahora.

PAG. Usted describe en el libro cómo funciona la IA y lo poco que tiene que ver con nuestra forma de razonamiento. ¿Importa el proceso si completa su función?

r. Depende de para qué quieras usar el sistema. El GPS de mi coche puede encontrar una carretera desde ida e ir a donde quiero ir. No entiendo el concepto de carretera o tráfico, pero hace un buen trabajo. La pregunta es: ¿realmente queremos que los sistemas interactúen de manera más general con el mundo humano? ¿En qué momento lo entenderé? Hubo un caso en el que un vehículo frenó automáticamente y chocó en un momento determinado, y el conductor no sabía de qué se trataba. El resultado fue que había un valle publicitario con un anuncio que tenía una señal de stop. ¿Podrías evitar errores como este? Sólo cuando comprenda el mundo como nosotros.

PAG. ¿Tienes dónde crees que se puede llegar a la IA?

r. No veo que haya ninguna razón por la que no podamos desarrollar máquinas con una inteligencia comparable a la de los humanos. Pero va a ser muy difícil conectarnos hasta ahora, no lo estamos buscando. En la década de 1970 pensé que cuando las máquinas pudieran jugar al nivel de un gran maestro, tendrían que igualar la inteligencia humana. Resultado: no seas así. Luego me dijeron que cuando podíamos traducir textos o mantener conversaciones. Tampoco pasó. Toda la historia de la IA ha demostrado que nuestras intuiciones sobre la vida y la inteligencia en el menú están equivocadas, que en realidad todo es mucho más complejo de lo que pensamos. Y creo que esto seguirá así. Necesitamos aprender mucho más sobre lo que realmente significa ser inteligente.

Decidir que los sistemas de IA podrían demolerse a sí mismos y destruirnos es, como mínimo, una afirmación muy improbable y especulativa.

PAG. Entonces tienes que pagar la multa.

r. Uno de los objetivos de la IA es ayudar a comprender qué entendemos por inteligencia. Y, a la hora de implementarlo en máquinas, sólo hay que tener en cuenta que en realidad incluimos muchos elementos que no consideramos.

PAG. Algunos pioneros de la IA, como Geoffrey Hinton, creen que esta tecnología puede ser difícil de controlar. ¿Usted qué opinión?

r. La IA contiene muchos tipos de pelos. Se puede utilizar para producir información errónea, etc. profundo. Están tus algoritmos, como el que comentas en el caso del reconocimiento facial. Sugerencias y otras más y dicen que estos sistemas podrían derribarse y destruirse a sí mismos. Esta afirmación es, por decir lo menos, muy improbable y especulativa. Si intentamos desarrollar un sistema superinteligente, dudo que debamos importar nuestros valores, ya que matar a todos los humanos no es bueno. Centrarse tanto en esta idea tan dramática de los desafíos existenciales que enfrenta la humanidad es sólo desviar la atención de cosas que son realmente importantes en este momento.

PAG. ¿Cree que, como sociedad, estamos adoptando adecuadamente aquellas cosas que nos han atormentado hoy?

r. Sí, aunque la legislación sigue el ritmo de la innovación. La UE ha dado un primer paso con el Reglamento europeo sobre IA. Una de las cosas que estamos viendo en EE UU son las peticiones del autor. Todos estos sistemas vienen con grandes cantidades de texto e imágenes. Si no te han pagado por tu uso, ¿estamos ante una infracción de los derechos de autor? La ley no es clara porque se promulgó mucho antes del desarrollo de esta tecnología. Nos gustaría resolver esto.

Los neurocientíficos no entienden cómo funciona el cerebro y hacen experimentos para tratar los sentimientos a medida que surgen. Esto es lo que pasa ahora con la IA generativa

PAG. ¿Cuál es la aplicación de IA más impresionante que has visto últimamente?

r. Lo que más me entusiasma es la aplicación de estos sistemas a problemas científicos. DeepMind, por ejemplo, trabaja en el uso de IA para predecir la estructura de las proteínas. También se utiliza para el desarrollo de nuevos materiales y fármacos. Estamos en una especie de nueva era de la ciencia, puede que sea muy importante como la que se inauguró con la liga de informáticos.

PAG. Dice en el libro que quienes calibran los sistemas de aprendizaje profundo, la técnica de inteligencia artificial más avanzada, parecen ser expertos en términos científicos, porque ajustan los parámetros de las máquinas sin saber exactamente qué hacer.

r. Poco después de escribir el libro se propuso hablar de los ingenieros de requiere [las instrucciones que se le da las herramientas de IA generativa]. Su trabajo es asegurarse de que el sistema tenga el mejor rendimiento posible. El resultado es que hay gente que gana mucho dinero haciendo este trabajo. Sí, es pura alquimia, no más ciencia. Sólo si lo tratan para probar qué. Algunos funcionan y otros no, y no tenemos idea de por qué.

PAG. Resulta irónico que estemos hablando de optimizar una de las tecnologías más sofisticadas de la historia de la humanidad que la ha llevado a las estrellas.

r. Estos sistemas son, en cierto sentido, cajas negras. Son sistemas de Software extremadamente complejo que no fue programado explícitamente para hacer cosas, pero que fue entrenado, aprendió los datos y nadie puede verificar por qué funciona como lo hizo. Los neurocientíficos entienden cómo funciona el cerebro y realizan experimentos para tratar el sentimiento que surge. Esto es lo que sucede ahora con la IA generativa.

Puedes seguir en EL PAÍS Tecnología es FacebookX o escribe aquí para recibirnos boletín periódico.

Regístrate para seguir leyendo

lee sin limites

_