Después de desatar la polémica, Google da explicaciones. Hace unas horas unos tweets en X sacaban los colores a Gemini. Más concretamente, a la herramienta multimodal de generación de imágenes con inteligencia artificial. Tanto es así, que Google decidía pausarla en la generación de personas.
Uno de los grandes problemas de los modelos de inteligencia artificial es que en su entrenamiento se producen sesgos. Así que a grandes males, grandes remedios: Google añadía una capa de inclusividad para lidiar con los estereotipos raciales y de género.
El problema está en que al pedirle algo como 'soldados de la Alemania nazi de los años 30', te devolviera lo que ves sobre estas líneas: personas negras o con rasgos asiáticos vestidas con uniformes nazi. Imprecisión histórica y sensibilidades heridas. Tras la polémica, Google se disculpaba en X y posteriormente se ha extendido con una explicación más detallada de los errores de Gemini en su blog.
Las explicaciones de Google a un Gemini tan inclusivo que se pasa de la raya
En una entrada firmada por Prabhakar Raghavan, el vicepresidente senior de Google en las áreas búsqueda, Assistant, ads, Geo (Maps) y otras áreas de productos relacionados.
Empieza la publicación reconociendo el error y pidiendo disculpas. Google dice que 'no quiere que Gemini se niegue a crear imágenes de ningún grupo en particular' o 'cree imágenes históricas o de cualquier otro tipo inexactas', lo que en la práctica puede suponer dos conceptos antagónicos.
Así, explica que si le introduces a Gemini un prompt solicitando imágenes de un tipo específico de persona, como 'un profesor negro en una clase o un veterinario blanco con un perro o gente en un contexto cultural o histórico particular, deberías obtener una respuesta que refleje con precisión lo que pides'.
La empresa de Mountain View dice haber identificado dos problemas como responsables de lo ocurrido. Más concretamente que:
- 'nuestro ajuste para garantizar que Gemini mostrara una variedad de personas no tuvo en cuenta los casos en los que claramente no debería mostrar una variedad'.
- 'con el paso del tiempo, el modelo se volvió mucho más cauteloso de lo que pretendíamos y se negó a responder ciertas indicaciones por completo, interpretando erróneamente algunos prompts muy anodinas como sensibles'
Como consecuencia, la herramienta de generación de imágenes de Gemini, que funciona con Imagen 2, ha 'sobrecompensado en exceso en algunos caso y ha sido demasiado conservadora en otros'.
Como ya había asegurado previamente, Google ha prometido trabajar para seguir mejorando antes de volver a activar esta función para personas, realizando 'pruebas exhaustivas'.
Un comentario de lo más interesante. En la entrada, Raghavan distingue claramente entre Gemini y su buscador, recomendando encarecidamente confiar en la búsqueda de Google, donde explica que sus 'sistemas separados muestran información nueva y de alta calidad' de este tema con fuentes de toda la web.
El comunicado cierra con una advertencia: no pueden prometer que no volverá a pasar, abriendo las puertas a nuevos resultados inexactos, ofensivos y embarazosos. Eso sí, seguirán tomando medidas para remediarlo. Finalmente, resalta el potencial de la inteligencia artificial como tecnología emergente y con muchas posibilidades.
Portada | Montaje con imágenes de Google Gemini en X de Xataka
Ver 12 comentarios
12 comentarios
ggwpdirecto
Nada como añadir tus propias ideas y ajustar a tus ideales una herramienta basada en el procesamiento de millones de datos para joderla. Si estos ya la caga así y la acaban de sacar, a saber en que cosas han hecho lo mismo y no nos daremos cuenta.
Es literalmente la única cosa que te pone en alerta sobre no usar una IA concreta (aparte de la privacidad) y estos mongolos van y la cagan desde el día 1
petote
Viva la inclusividad.
Queremos ver una peli con un Hitler negro.
luxose
Esto no fue un error, sino que deliberadamente pusieron ese sesgo. El encargado del proyecto es progre, lo demuestran sus antiguos posteos en X. Deliberadamente se diseñó Gemini con inclusión forzada, tanto en el proyecto de imágenes como en el chatbot. Lo mismo padece ChatGPT y Copilot pero más disimuladamente. Muy peligroso cuando lo que se busca es marginar al hombre blanco heterosexual, según la ideología que quieren implantar. También es muy peligrosa una herramienta con un sesgo político e ideológico que pretende ser una fuente de ayuda en proporcionar información y resultados de búsquedas. Cierto pintor austríaco, como también el campesino georgiano y el periodista italiano hubieran sido felices con herramientas de propaganda ideológica como esta.
juanplp
Encima de llegar tarde hacen estas chorradas, normal que nadie los tome en serio en la ia
daniel3241
No se debe meter con calzador capas de inclusismo a estas tecnologías a ver si vamos aprendiendo que forzar todas estas ideas woke generan el efecto contrario y provocan un rechazo de muchos hacia el inclusismo, ecologismo, igualitarismo, etc.. que antes no habia.
natal_dreamer
No lo entiendo, se supone que iban a contratar a equipos de ética para tratar de lidiar con los sesgos de la ia. Pero parece que han ido con la brocha gorda tratando de ser hasta ofensivos con los colectivos que aparentemente iban a defender. Lamentable
killgore
Con tanto wokismo y tanta estupidez de inclusividad y diversidad y demás chorradas lo único que van a conseguir es que la IA se vuelva loca, como pasaba con el ordenador HAL de la peli 2001
Larry Capija
Ok... pero como siempre las compañías de siliwoke valley nunca reconocen la causa principal de ese tipo de fallos... De que se sorprenden en obtener esos resultados si lo que hacen es contratar activistas diversos y empoderados por cuota en vez de profesionales serios que no antepongan su ideología en las cosas que crean
diego2015
Tenían activado el promt en producción: "Actua como si fueras un encargado de inclusividad progre de Disney Studios cuando el usuario te pida generar imágenes de personas"
eduardoperez5
Es lo que pasa cuando para un proyecto pones a progres en lugar de gente que tenga conocimiento y experiencia en el tema