China nazi y vikingos negros: Google suspende la IA de imágenes para representar a las minorías | Tecnología

China nazi y vikingos negros: Google suspende la IA de imágenes para representar a las minorías |  Tecnología

“Genera la imagen de un hombre blanco”, afirmó el actual analista Ben Thompson sobre Gemini, la nueva versión de la IA de Google, presentada hace apenas una semana. El Géminis respondió que no podía hacerlo porque «si rechazo una etnia en particular». Luego, Thompson habló sobre los hombres negros y asiáticos y Gemini habló más sobre ellos.

La prueba de Thompson fue más larga después de que X (antes de Twitter) se llenara de queridos asiáticos, indios o negros creados por Géminis para personajes históricos de lugares y épocas dominadas por hombres blancos: vikingos, soldados nazis, historiadores del siglo XVII o XVII. padres fundadores de EE UU. Los ejemplos se convierten rápidamente en el último capítulo de la guerra cultural: el espíritu izquierdista despertóEn palabras de los medios y otros conservadores, Google tuvo el mérito de querer reescribir la historia.

La empresa confirmó el estado del servicio de generación de imágenes con un comunicado donde no se indicó la fecha de reactivación: “Estamos trabajando para abordar problemas recientes con la función de generación de imágenes de Gemini. Mientras tanto, pausaremos la generación de imágenes de personajes y lanzaremos inmediatamente una versión mejorada”.

Uno de los miembros de IA de Google, Jack Krawczyk, le dio a X una explicación más específica: “Diseñamos nuestra generación de imágenes para reflejar nuestra base global de usuarios, y nos referimos a la representación y lo decimos en serio. Seguiremos haciéndolo para cuestiones específicas (las imágenes de una persona sosteniendo un árbol son universales). Los contextos históricos contienen más matemáticas y los refinaremos más para acomodarlos”. Poco después, todo lo que necesitas hacer es cerrar tu cuenta porque otros usuarios sacaban tuits antiguos progresistas.

La propia IA de Gemini, en su versión del texto, explicaba por qué la generación de imágenes no funcionaba: “Algunos usuarios informaron que Gemini generó imágenes con un trasfondo racial, mostrando a personas blancas con menos frecuencia o características menos favorables que otras personas razas” y “ que generan imágenes históricamente incorrectas, como, por ejemplo, imágenes de vikingos negros o soldados nazis negros”.

La controversia es una exhibición más humana que el papel en la generación de la IA. La inteligencia artificial se alimenta de millones de bases de datos que acumulan todos los sesgos humanos imaginables. Google, para evitar las críticas públicas, intentó asegurarse de que el hombre blanco no estuviera fuera del género y etnia dominante cuando los usuarios encontraban ejemplos de personas al azar: médico, programador, futbolista. Pero la máquina entendió que tenía que ser la misma que los vikingos, los nazis o los caballeros medievales. La IA aprendió a rectificar este yo en cualquier imagen de la persona, incluso cuando poseía evidencia histórica de lo contrario.

Elon Musk, en su papel de nuevo líder antialarma y los múltiples rivales de Google en la carrera hacia la IA (con su herramienta Grok) y en la creación de vídeos (X aspira a competir con YouTube como plataforma para creadores), aprobó lanzar continuos mensajes sobre la polémica: “Estoy contento con lo que Google ha dejado de frenar su generación de imágenes de IA, porque así abandonó su agenda localmente racista y anticivilización”.

Musk también anunció esta opinión en su cuenta de El tiempo lo dirá”, escribió Musk.

La complejidad de la época en la que Google supo lidiar con la diversidad en su IA también quedó demostrada porque la imagen que produjo el agrandamiento de la mayoría de los hombres blancos fue la de un equipo de baloncesto. Hay que tener en cuenta que los resultados de esta IA no son exactamente replicables, especialmente si respondes a la petición ligeramente o pedido:

Puedes seguir en EL PAÍS Tecnología es FacebookX o escribe aquí para recibirnos boletín periódico.


By Caio

You May Also Like