Ayer se conmemoró en Londres, en el memorial de Whitehall, el Remembrance Sunday. Una ceremonia en la que veteranos, militares, autoridades y ciudadanos rinden homenaje a los caídos en las dos guerras mundial. Un acto solemne y oficial que este año ha contado con una polémica: el uso por parte de la Policía Metropolitana de un software de reconocimiento facial.
The Guardian, el medio de comunicación que reveló horas antes los planes policiales, confirmó con fuentes del cuerpo que el uso de esta tecnología en el evento se trataba de una prueba y no estaba relacionada con terrorismo ni ningún tipo de delito grave.
Seguimiento biométrico en tiempo real
Como se ha podido ver en fotografías difundidas por algunos de los asistentes, en los aledaños del memorial se informaba mediante carteles del uso de cámaras con reconocimiento facial. El objetivo era, según la información publicada, analizar los rostros de los miles de concurrentes en busca de individuos conocidos por su comportamiento obsesivo respecto a figuras públicas.
Facial recognition cameras, bag searches, sniffer dogs and body scanners lining Whitehall for the Remembrance Sunday service at the cenotaph @LBC pic.twitter.com/rIMVKHF6yP
— Rachael Venables (@rachaelvenables) 12 de noviembre de 2017
Los datos de estas personas, unas cincuenta, fue introducido en el sistema de forma que el seguimiento biométrico en tiempo real pudiese avisar si las detectaba accediendo a la zona. Sin embargo, ninguno de los conformantes de la lista está en búsqueda y captura, por lo que grupos de libertades civiles han denunciado un uso discriminatorio de la tecnología.
Un eterno debate: seguridad contra privacidad
Para Martha Spurrier, directora del grupo Liberty, "no hay base legal ni consentimiento público para desplegar esta vigilancia biométrica intrusiva e intimidante en los espacios públicos". Una opinión compartida por todos aquellos que, desde que esta clase de tecnología se emplea, cuestionan la falta de privacidad.
La Policía Metropolitana de Londres ya ha usado en otras dos ocasiones, que se sepa, este software de reconocimiento facial durante los últimos dos años. La última vez fue en el carnaval de Notting Hill y, según Spurrier, el sistema provocó "múltiples identificaciones incorrectas". Incluso confundiendo los géneros de algunas personas.
En otros países, la historia se repite. A finales de 2014, en una ciudad canadiense, la policía local comenzó a emplear otro software de reconocimiento facial capaz de tomar fotos y vídeos para analizar caras, comparándolas con una base de datos de personas fichadas. Aunque su uso era preventivo, como en el caso de la capital británica, la iniciativa no fue bien recibida por todos.
China, subiendo la apuesta, quiere emplear en estos reconocimientos una inteligencia artificial que tratará de evitar crímenes antes de que tengan lugar. Una iniciativa noble, a priori, que choca contra numerosas vulneraciones de derechos y libertades, añadiendo todavía más sospechas a un debate complejo ya desde su origen.
Las preguntas sobre el difícil equilibrio entre seguridad y privacidad, con la tecnología en el medio, continúan en el aire.
En Xataka | 20 millones de cámaras equipadas con inteligencia artificial hacen que China sea el verdadero 'Gran Hermano'
Ver 1 comentarios