La desinformación en redes relativa al conflicto entre Israel y Hamás lleva varios días siendo motivo de debate político y mediático —como ya ha demostrado, por ejemplo, la investigación de la UE en torno a los criterios de X—, pero la irrupción de la inteligencia artificial parece estar sirviendo para añadir leña al fuego.
Y es que algunas aplicaciones dedicadas a la detección de imágenes generadas mediante IA están siendo usadas de forma controvertida para legitimar o deslegitimar las fotos del conflicto, identificando en varios casos como 'falsas' imágenes de eventos reales.
Tras varios años generando preocupación entre el público en torno a las 'fake news', nos encontramos ahora ante el problema de 'quién vigilará a los vigilantes'… es decir, qué ocurre cuando las herramientas de verificación generan falsos positivos o negativos.
Ya sabíamos que, en el caso de los textos generados por IA, la efectividad de las herramientas de detección deja mucho que desear, circunstancia que ya ha generado varias polémicas… y, obviamente, esto se aplica también a las imágenes.
La foto de la polémica
Una foto en concreto ejemplifica este debate: una difundida por Israel, en la que aparece el cadáver carbonizado de un bebé que supuestamente habría muerto a manos de los terroristas de Hamás. La imagen en cuestión fue difundida en X por el polémico y popular comentarista judío estadounidense Ben Saphiro…
…y, pocas horas después, otra cuenta de Twitter le contestó adjuntando tanto una captura de dicho tuit junto a una 'nota de la comunidad' que hacía referencia que la herramienta AI or Not de detección de imágenes creadas con IA valoraba como falsa dicha foto.
Sin embargo, hubo usuarios que denunciaron (aquí el enlace: foto sin censura) que la misma foto ofrecía cada vez un resultado distinto al ser analizada con dicha herramienta, y X cambió dicha nota para advertir que la herramienta en cuestión no era fiable.
Hany Farid, un profesor de la Universidad de California y uno de los principales expertos mundiales en imágenes manipuladas digitalmente, examinó personalmente la imagen y confirmó que no mostraba signos de haber sido creada por una IA.
Farid explicó que las IA tienen dificultades para recrear estructuras y líneas rectas de manera precisa, y a menudo tienen problemas con la creación de sombras realistas. En el caso de la imagen en cuestión, los detalles, como las sombras de una fuente de luz superior y la línea recta de una pata de mesa, son consistentes con una imagen real.
¿Fiarse o no fiarse?
Farid advierte que no se debe confiar plenamente en los resultados de estas herramientas, ya que a menudo —como en este caso— ofrecen resultados inconsistentes que sólo pueden agravar la confusión en medio del caos informativo.
Además, siempre existe la posibilidad de que una imagen real sea sometida a manipulaciones apenas perceptibles usando una IA y sean difundidas con el objetivo de que sea detectada: un positivo legítimo que, sin embargo, sería informativamente irrelevante.
Por ello, si lo que está en juego es la percepción de la opinión pública acerca de un conflicto con miles de muertos, para Farid resulta fundamental conceder poca o ninguna importancia a las valoraciones de aplicaciones automatizadas, y confiar, por el contrario, en la labor 'forense' de humanos expertos que analicen con detalle las imágenes en circulación.
Imagen | Creada mediante inteligencia artificial por Marcos Merino + Bocadillo de Wikipedia
En Xataka | Cada vez más alumnos utilizan ChatGPT para sus trabajos. Y cada vez más profesores para descubrirlo
Ver 5 comentarios