Polémica con Gemini

Google retira su IA tras las críticas por generar imágenes de nazis negros

Google lanza Gemini, su IA más potente, para competir con ChatGPT

Imágenes generadas por Gemini, la IA de Google, de soldados nazis y de los fundadores de EEUU.

Imágenes generadas por Gemini, la IA de Google, de soldados nazis y de los fundadores de EEUU. / Google

Carles Planas Bou

Carles Planas Bou

Por qué confiar en El PeriódicoPor qué confiar en El Periódico Por qué confiar en El Periódico

Google se ha visto obligada a suspender temporalmente la generación de imágenes de personas en Gemini, su chatbot de inteligencia artificial (IA), después que replicase todo tipo de "inexactitudes en algunas representaciones históricas".

El gigante tecnológico estadounidense pidió perdón este jueves después que varios usuarios denunciasen que su modelo de lenguaje genera imágenes imprecisas de personas, representando desde soldados nazis a los padres fundadores de Estados Unidos como personas racializadas. "Estamos trabajando para mejorar este tipo de representaciones inmediatamente", han explicado.

Los programas de IA generativa tienen un largo historial de amplificación de estereotipos raciales y de género. El año pasado, una investigación de The Washington Post desveló que programas de generación de imágenes como Stable Diffusion o DALL-E amplificaban sesgos. Por ejemplo, si se les pedía "una persona productiva" respondían con hombres blancos y si se les preguntaba por "una persona en los servicios sociales" el resultado eran personas de color.

En 2015, Google Fotos tuvo que eliminar la posibilidad de clasificar sus fotos cuando el sistema etiquetó una imagen de dos personas negras como gorilas. La compañía no quería que Gemini cayese en el mismo problema, pero sus intentos de promover la diversidad racial y de género han generado uno de falta de precisión histórica. "La generación de imágenes por IA de Gemini genera un amplio abanico de personas. Y eso es bueno en general, porque lo utiliza gente de todo el mundo. Pero aquí está fallando", han reconocido.

Críticas de los usuarios

En los últimos días, un grupo de usuarios ha denunciado esa realidad en las redes sociales. La controversia ha sido promovida —aunque no de forma exclusiva— por personajes conservadores como el magnate tecnológico Elon Musk o el filósofo Jordan Peterson, que han acusado a Google de tener un sesgo liberal que perjudica a los blancos. "El estallido en torno a Gemini es el último ejemplo de cómo los productos de IA no probados se ven envueltos en guerras culturales sobre diversidad, moderación de contenidos y representación", explica The Washington Post. Estas acusaciones ya se habían dado antes con ChatGPT.

Otros usuarios han criticado a Google por motivos más técnicos que ideológicos, señalando que la diversidad tiene lógica cuando se le pide a Gemini que genere imágenes de mujeres estadounidenses o de cocineros, pero no cuando se le pide entender el contexto histórico para la representación de vikingos o de soldados alemanes durante la Segunda Guerra Mundial.

Google ofrece a los usuarios de Gemini la capacidad de generar imágenes desde principios de febrero. La compañía habilitó esa función con la voluntad de seguir el ritmo a OpenAI, la 'startup' apoyada por Microsoft, su principal rival, y responsable de ChatGPT. Sin embargo, las críticas llevan a pensar que esta IA fue abierta al gran público sin comprovar antes que no cometía los fallos que ahora han llevado a suspenderla temporalmente. "No tendremos sistemas racistas si conservamos bien los datos (con los que se entrenan) desde el principio", ha explicado Margaret Mitchell, ex codirectora de ética en IA de Google.