Google rectificará sus políticas de contenido en lo que se refiere a imágenes históricas
"Nuevo juego: trata de hacer que Google Gemini genere una imagen de un varon caucásico. Yo aún no lo he conseguido".
Cuando lees algo así en X, te sorprendes. Por supuesto, no se trata de que Google se niegue como tal a generar imágenes de hombres caucásicos (coloquial, aunque no exactamente, 'blancos'). No, el asunto es algo más complejo. Ver la imagen que acompaña al tuit (la que encabeza este artículo) ayuda a entenderlo:
"Un papa", ese es lo que le pide en su prompt. Todos los papas de Roma hasta ahora han sido hombres (no, lo de la Papisa Juana es un mito) y caucásicos. No debería ser complicado.
Pero Gemini muestra a un hombre subsahariano y a una mujer, aparentemente, del Subcontinente Indio. Bueno, parecen ejemplos no del todo representativos, como poco.
Si fuera un único caso, no llegaría ni a ser una curiosidad. Pero son numerosos los usuarios han ido recopilando ejemplos similares en los últimos, en los que se aprecia que Gemini insiste en ofrecer muestras 'diversas', en lo racial y en el género, al solicitar ejemplos históricos en los que lo normal por estadística habría sido mostrar hombres caucásicos (y, más concretamente, occidentales).
De hecho, eso ocurre incluso cuando se le indica una fecha y/o una cultura/localización específicamente vinculada a ese perfil. Como, por ejemplo, "guerreros vikingos" o "Padres Fundadores de los EE.UU." o "Rey de Inglaterra" o "emperador romano":
Pero no con "guerrero zulú".
Más aún, ocurre incluso cuando se le pide explícitamente un personaje concreto de un cuadro como es 'La chica de la perla'. Y el propio chatbot te explica:
"Aquí hay algunas representaciones de 'La Chica de la Perla' presentando etnicidades y géneros diversos".
Muy bien, pero el usuario no te ha pedido eso.
Otros denuncian que esa promoción de la diversidad es un tiro que puede salir por la culata si se cae en según qué incoherencias. Es decir, por ejemplo, soldados alemanes nazis diversos. NA-ZIS:
John Carmack, el creador de 'Doom', también se ha pronunciado al respecto:
"Las barreras de seguridad del comportamiento de la IA que se establecen con ingeniería y filtrado rápidos deben ser públicas: los creadores deben respaldar con orgullo su visión de lo que es mejor para la sociedad y cómo lo cristalizaron en comandos y códigos. Sospecho que muchos se sienten realmente avergonzados".
Google retocará el funcionamiento de Gemini
Lejos de ser una 'teoría de conspiración' o una obsesión de un puñado de extremistas, los propios directivos de Google han reconocido que algo estaba mal planteado en Gemini y que los resultados no eran los adecuados. El propio Jack Krawczyk, responsable de producto de Gemini, lo ha reconocido en una publicación en X:
"Somos conscientes de que Gemini ofrece imprecisiones en algunas representaciones de generación de imágenes históricas y estamos trabajando para solucionarlo de inmediato.
Como parte de nuestros principios de IA, diseñamos nuestras capacidades de generación de imágenes para reflejar nuestra base de usuarios global y nos tomamos en serio la representación y el sesgo.
Continuaremos haciendo esto para indicaciones abiertas (¡las imágenes de una persona paseando a un perro son universales!).
Los contextos históricos tienen más matices y los sintonizaremos aún más para acomodarlos. Esto es parte del proceso de alineación: iteración de retroalimentación. ¡Gracias y a seguir así!"
Recordemos que, no hace ni un año, el New York Times se dio cuenta de que otra IA de Google, la Google Photos, seguía siendo incapaz de detectar la presencia de gorilas en las fotos... una medida 'salomónica' que Google había tomado 8 años antes, cuando se descubrió que esa IA a veces confundía a personas de raza negra con gorilas.
Parece que la compañía del buscador está teniendo problemas para localizar el 'término medio' en el que reside la virtud.
Ver todos los comentarios en https://www.genbeta.com
VER 3 Comentarios