Seguramente, alguna vez en tu vida te han dicho que "tienes cara de... (introducir profesión)." Esto no es más que pura inferencia, extraer unas conclusiones a partir de ciertas premisas. No solo los humanos somos capaces de asignar etiquetas a personas basándonos en nuestro conocimiento o creencias previas, la inteligencia artificial lleva años haciéndolo (o intentando hacerlo).
Un claro ejemplo lo tenemos en los smartphones, que cada vez intentan presumir más de lograr detectar cuándo estamos haciendo una fotografía a un animal, plato de comida, persona, etc, para así asignar ciertos valores predeterminados.
En el contexto de la exposición Training Humans, llevada a cabo por Kate Crawford (investigadora y profesora de IA) y Trevor Paglen (artista e investigador), se ha presentado ImageNet Roulette, un proyecto que se ha diseñado para mostrar lo ridículos que pueden llegar a ser los sistemas de clasificación de personas basados en redes neuronales. Con un conjunto de más de 2.500 etiquetas y una página web en la que cualquiera puede hacer pruebas, las conclusiones que se pueden sacar sobre este tipo de funcionamiento dan que pensar.
ImageNet Roulette muestra lo ridículos que pueden ser los sistemas de clasificación por etiquetas
Want to see how an AI trained on ImageNet will classify you? Try ImageNet Roulette, based on ImageNet's Person classes. It's part of the 'Training Humans' exhibition by @trevorpaglen & me - on the history & politics of training sets. Full project out soonhttps://t.co/XWaVxx8DMC pic.twitter.com/paAywgpEo4
— Kate Crawford (@katecrawford) September 16, 2019
ImageNet es, según sus creadores, un experimento de clasificación. Del mismo modo, afirman que supone "uno de los conjuntos de entrenamiento más importantes e históricamente significativos en IA". Básicamente, se basa en la estructura semántica de Wordnet, una base de datos inglesa que contiene un amplio número de palabras que pueden usarse a nivel computacional. Por cierto, desde la web afirman que no guarda ninguno de nuestros datos, aunque enviemos imágenes.
El funcionamiento de ImageNet es simple. Se carga una imagen, y esta se envía a un modelo Caffe (marco de aprendizaje profundo desarrollado por Berkeley AI Research) para ser analizada. El modelo devuelve la imagen clasificada con las etiquetas que le ha asignado tras su análisis.
En un principio, ImageNet se creó para categorizar objetos (el proyecto lleva vivo más de 10 años), pero quisieron llevarlo más allá, viendo qué sucedía cuando la herramienta, que consta de más de 14 millones de etiquetas, se aplicaba en humanos.
¿Los resultados? Curiosos. Hemos querido probarlo con varias situaciones. Con nosotros mismos intentando vestirnos mediantamente bien, nosotros mismos con cara de pocos amigos y un aspecto menos presentable, un político español y una gran figura del mundo tecnológico.
En el primer escenario, con servidor vestido de camisa, la IA ha decidido no ir más de mi raza. 'Negro', 'persona negra', 'negroide'. Técnicamente ha acertado, pero resulta curiosa una clasificación por pura raza, mientras que, cuando ponemos a personas blancas, la clasificación, como más tarde veremos, se hace de otra forma.
En la segunda situación, hemos decidido dejar las galas y mostrar nuestro descontento con una cara de pocos amigos. El sistema de clasificación ha cambiado por completo, y nos ha asignado etiquetas como sospechoso, acusado, litigante (persona que se enfrenta a un juicio).
Pasamos de un extremo a otro, subiendo una foto de uno de los políticos más sonados de España, Santiago Abascal. En este caso, la IA ha asociado su aspecto con el de un abogado de la corona, y le ha asignado etiquetas como la de 'profesional', 'persona profesional' o 'abogado'.
Para finalizar, qué menos que probar la herramienta con una figura histórica de la tecnología, como lo fue Steve Jobs. En este caso, la IA ha considerado que es un biógrafo, asignándole etiquetas como 'comunicador' (aquí no va demasiado desencaminada) o escritor.
Los creadores de la página afirman que quieren arrojar luz sobre lo que sucede cuando una base de datos trata de clasificarnos en base a, valga la redundancia, los propios datos que tiene. ¿Qué sucede si los datos presentan problemáticas? ¿Cuántas cosas pueden fallar en el proceso?
ImageNet contiene una serie de categorías problemáticas, ofensivas y extrañas, todas ellas extraídas de WordNet. Algunos utilizan terminología misógina o racista. Por lo tanto, los resultados de las devoluciones de la Ruleta de ImageNet también se basarán en esas categorías. Esto es por diseño: queremos arrojar luz sobre lo que sucede cuando los sistemas técnicos son entrenados en datos de entrenamiento problemáticos. Las clasificaciones de la IA de las personas rara vez se hacen visibles para las personas que están siendo clasificadas. ImageNet Roulette ofrece un vistazo a ese proceso - y para mostrar las formas en que las cosas pueden salir mal.
En definitiva, la herramienta trata de mostrar el trasfondo que se busca en la exposición, explorar cómo se representan y codifican los humanos a través de los sistemas de entrenamiento, y cómo las herramientas tecnológicas usan dichos sistemas para etiquetarnos.
Más información | ImageNet
Ver todos los comentarios en https://www.genbeta.com
VER 7 Comentarios