Polémica con Gemini
Google retira su IA tras las críticas por generar imágenes de nazis negros
Google lanza Gemini, su IA más potente, para competir con ChatGPT
![Imágenes generadas por Gemini, la IA de Google, de soldados nazis y de los fundadores de EEUU.](https://estaticos-cdn.prensaiberica.es/clip/c15234b5-e868-4ad9-a691-9a961839e040_16-9-discover-aspect-ratio_default_0.jpg)
Imágenes generadas por Gemini, la IA de Google, de soldados nazis y de los fundadores de EEUU. / Google
![Carles Planas Bou](https://estaticos-cdn.prensaiberica.es/clip/3cf5f6cc-c283-48e1-ad20-c17025600721_source-aspect-ratio_default_0.jpg)
![Carles Planas Bou](https://estaticos-cdn.prensaiberica.es/clip/3cf5f6cc-c283-48e1-ad20-c17025600721_source-aspect-ratio_default_0.jpg)
Carles Planas Bou
Periodista
Periodista tecnológico entre el mundo digital y la política internacional. Centrado en capitalismo de plataformas, IA, vigilancia y derechos digitales. Excorresponsal en Berlín durante más de cuatro años, cubrió los gobiernos de Merkel, la crisis de los refugiados y el auge de la extrema derecha. También ha trabajado en Europa Central y en Canadá. Graduado en Periodismo por la URL y máster en Relaciones Internacionales por la UAB. Ha colaborado con TV3, TVE, Deutsche Welle, Catalunya Ràdio, El Orden Mundial o El Salto.
Google se ha visto obligada a suspender temporalmente la generación de imágenes de personas en Gemini, su chatbot de inteligencia artificial (IA), después que replicase todo tipo de "inexactitudes en algunas representaciones históricas".
El gigante tecnológico estadounidense pidió perdón este jueves después que varios usuarios denunciasen que su modelo de lenguaje genera imágenes imprecisas de personas, representando desde soldados nazis a los padres fundadores de Estados Unidos como personas racializadas. "Estamos trabajando para mejorar este tipo de representaciones inmediatamente", han explicado.
Los programas de IA generativa tienen un largo historial de amplificación de estereotipos raciales y de género. El año pasado, una investigación de The Washington Post desveló que programas de generación de imágenes como Stable Diffusion o DALL-E amplificaban sesgos. Por ejemplo, si se les pedía "una persona productiva" respondían con hombres blancos y si se les preguntaba por "una persona en los servicios sociales" el resultado eran personas de color.
En 2015, Google Fotos tuvo que eliminar la posibilidad de clasificar sus fotos cuando el sistema etiquetó una imagen de dos personas negras como gorilas. La compañía no quería que Gemini cayese en el mismo problema, pero sus intentos de promover la diversidad racial y de género han generado uno de falta de precisión histórica. "La generación de imágenes por IA de Gemini genera un amplio abanico de personas. Y eso es bueno en general, porque lo utiliza gente de todo el mundo. Pero aquí está fallando", han reconocido.
Críticas de los usuarios
En los últimos días, un grupo de usuarios ha denunciado esa realidad en las redes sociales. La controversia ha sido promovida —aunque no de forma exclusiva— por personajes conservadores como el magnate tecnológico Elon Musk o el filósofo Jordan Peterson, que han acusado a Google de tener un sesgo liberal que perjudica a los blancos. "El estallido en torno a Gemini es el último ejemplo de cómo los productos de IA no probados se ven envueltos en guerras culturales sobre diversidad, moderación de contenidos y representación", explica The Washington Post. Estas acusaciones ya se habían dado antes con ChatGPT.
Otros usuarios han criticado a Google por motivos más técnicos que ideológicos, señalando que la diversidad tiene lógica cuando se le pide a Gemini que genere imágenes de mujeres estadounidenses o de cocineros, pero no cuando se le pide entender el contexto histórico para la representación de vikingos o de soldados alemanes durante la Segunda Guerra Mundial.
Google ofrece a los usuarios de Gemini la capacidad de generar imágenes desde principios de febrero. La compañía habilitó esa función con la voluntad de seguir el ritmo a OpenAI, la 'startup' apoyada por Microsoft, su principal rival, y responsable de ChatGPT. Sin embargo, las críticas llevan a pensar que esta IA fue abierta al gran público sin comprovar antes que no cometía los fallos que ahora han llevado a suspenderla temporalmente. "No tendremos sistemas racistas si conservamos bien los datos (con los que se entrenan) desde el principio", ha explicado Margaret Mitchell, ex codirectora de ética en IA de Google.
- Esta fruta no la come casi nadie, siempre está en los supermercados y está llena de proteína y antioxidantes
- El apellido de origen gitano que tienen más de tres millones de españoles
- Crisis en una escuela compleja de Badalona: pierde a 20 profesores de un plumazo tras el proceso de estabilización docente
- ¿No sabes qué hacer con tanto calabacín? Tres recetas para aprovecharlos
- Un brote de salmonelosis en un bar de Barcelona deja al menos 22 afectados tras comer tortilla de patatas
- Vecinos de Sants piden al Ayuntamiento de Barcelona que compre su bloque para no quedarse sin alquiler
- Estas son las playas de Catalunya con más medusas
- Muere de forma violenta la influencer Catalina Gutiérrez a los 21 años