A pesar de que la creación de imágenes con IA ha llegado a un nivel de realismo sorprendente, las famosas alucinaciones de estos modelos todavía provocan algún resultado de lo más polémico. En este caso, Google ha tenido que parar Gemini debido a que estaba creando imágenes inapropiadas e incorrectas. Parece que todavía tiene mucho trabajo por delante…
¿Qué ha sucedido con las imágenes de Gemini?
Google lanzó Gemini hace solo unas semanas, su modelo con IA que antes se llamaba Bard. Sin embargo, la intención de Google de crear imágenes inclusivas les ha salido por la culata. En las últimas horas se han hecho virales imágenes creadas con esta herramienta que son ciertamente incoherentes. Por ejemplo, cuando se le pide generar soldados Nazis, nos muestra imágenes de personas de todas las razas. No solo el rigor histórico es completamente erróneo, sino que este error muchos lo consideran ofensivo. Las imágenes falsas podrían dar a entender que determinados episodios históricos terribles no habrían sucedido. Como podría ser la discriminación por raza o género que desgraciadamente ha sido hegemónica hasta hace no tanto. Parece evidente que se debe a que Google ha programado la herramienta con el objetivo de solventar el estereotipo de raza y género. Pero en algunos casos puede dar resultados como estos. Calibrar la generación de imágenes por parte de la IA parece que todavía es algo complicado.
We're already working to address recent issues with Gemini's image generation feature. While we do this, we're going to pause the image generation of people and will re-release an improved version soon. https://t.co/SLxYPGoqOZ
— Google Communications (@Google_Comms) February 22, 2024
Google ha anunciado en Twitter (X) que pausará la capacidad de su IA Gemini para generar imágenes de personas después de que se descubriera que la herramienta estaba creando imágenes inexactas históricamente. Gemini ha estado generando imágenes diversas de los Padres Fundadores de Estados Unidos y soldados alemanes de la era Nazi, en lo que parecía ser un intento de subvertir los estereotipos de género y raza encontrados en la IA generativa. «Ya estamos trabajando para abordar los problemas recientes con la función de generación de imágenes de Gemini», dice Google en un comunicado publicado en X. «Mientras hacemos esto, vamos a pausar la generación de imágenes de personas y lanzaremos una versión mejorada pronto». La decisión de Google de pausar la generación de imágenes de personas en Gemini llega menos de 24 horas después de que la compañía se disculpara por las inexactitudes en algunas imágenes históricas generadas por su modelo de IA. Esto ha llevado a teorías de conspiración en línea de que Google está evitando intencionalmente representar a personas blancas.
¿Cómo va a afrontar Google las imágenes delicadas en el futuro?
Ahora que Google ha deshabilitado la capacidad de Gemini para generar imágenes de personas, así es como responde el modelo de IA si solicitas una imagen de una persona: Estamos trabajando para mejorar la capacidad de Gemini para generar imágenes de personas. Esperamos que esta función regrese pronto y te notificaremos en las actualizaciones de lanzamiento cuando lo haga. Google comenzó a ofrecer generación de imágenes a través de Gemini (anteriormente Bard) a principios de este mes, en un intento de competir con OpenAI y el Copiloto de Microsoft. Al igual que los competidores, la herramienta de generación de imágenes produce una serie de imágenes basadas en un prompt de texto. Lo que indica la reacción de Google a la hora de generar determinado tipo de contenido es que probablemente con temas sensibles se curen en salud. Por lo tanto es muy posible que los modelos de IA no sean capaces de generar imágenes sobre periodos delicados de la historia o sobre temas tabú. ¿Pero hasta dónde llegará esto?