Que la influencia y actuaciones del grupo ISIS van más allá del campo de batalla y que los miembros de esta célula son auténticos terroristas armados hasta las teclas, es una realidad que ya nos hemos encargado de evidenciar en anteriores artículos. Un contexto en el que estos islamistas han decidido apostar por la tecnología y en el que fuerzas del orden y agentes gubernamentales se han visto obligados a optar por un abordaje un tanto distinto de lo habitual.
Así y después de que la propaganda y mensajes difundidos por estos extremistas inspiraran al joven del atentado de Orlando –y volviesen a poner de manifiesto el poder de la difusión de esta clase de contenidos-, un investigador de la Universidad de Dartmouth (Estados Unidos) y una ONG han creado, según el Washington Post, una sistema capaz de detectar automáticamente los vídeos e imágenes generados por los terroristas y sus seguidores, y eliminarlos de forma inmediata.
Automatizando la eliminación de contenidos terroristas
De esta manera y tal y como explica el citado diario, su herramienta permitiría “limpiar los sitios en línea más populares de los vídeos sangrientos y la propaganda del Daesh, que pueden servir para incitar e inspirar a la gente a cometer actos de violencia”.
“Si fuera posible buscar los vídeos de decapitaciones o la imagen del combatiente del ISIS que lleva la bandera del Estado Islámico por las arenas de Siria, si se pudiera hacer con el audio y el vídeo, se estaría haciendo algo grande”, ha comentado el director ejecutivo del Proyecto Contra el Extremismo (CEP). “Sería cambiar el juego”.
En concreto, esta tecnología funciona mediante la creación de una firma digital única o un hash para cada imagen, vídeo o pista de audio. La idea es desarrollar una base de datos con ellas mediante la que las distintas compañías de Internet puedan detectar automáticamente aquellos archivos que puedan violar los términos y condiciones de su servicio.
Un sistema que, al mismo tiempo, clasifica el material según el tipo y grado de violencia, permitiendo a las empresas tener más datos para eliminarlas o no. Una vez que la firma en cuestión incluya este contenido en su particular lista negra, el servicio lo eliminará automáticamente en próximas ocasiones. En todo caso, siempre serán las compañías las que elijan.
La falta de apoyos
El proyecto, por otra parte y si bien cuenta con el respaldo de la Casa Blanca, no parece haber gustado a ciertas redes sociales, medios y plataformas similares -como Google y Twitter, que han manifestado abiertamente sus dudas sobre la eficacia de un proyecto de este tipo-, que aseguran que no existe un consenso claro, ni en Estados Unidos ni en el resto del mundo, de qué constituye exactamente una imagen terrorista.
Un inconveniente que podría provocar que acabaran eliminándose imágenes no ofensivas publicadas por medios de comunicación, otras presentes en informes, etcétera. Asimismo, apuntan a que, “probablemente, algunos gobiernos exigirán la eliminación de contenido político legítimo con el pretexto de luchar contra el terrorismo”.
Otras empresas han expresado también su preocupación respecto a la participación en la iniciativa de CEP pues, según ellos, esta podría influir en las pautas de las empresas respecto del contenido extremista. En todo caso, han defendido su interés en seguir explorando maneras alternativas para eliminar el contenido que infrinja sus políticas contra el terrorismo.
Vía | The Washington Post
Imágenes | Cordon Press
En Genbeta | Qué están haciendo los gigantes tecnológicos (y otros agentes) contra el terrorismo online
Ver todos los comentarios en https://www.genbeta.com
VER 2 Comentarios