El reconocimiento facial comienza a ser pasado para IBM. El máximo responsable de la compañía, Arvind Krishna, explicó por carta a varios miembros del Congreso de los Estados Unidos que dejaban de lado el negocio del reconocimiento fácil de uso general.
Además, en la misiva enviada en relación a la reforma de la justicia racial, no solo anunciaba que dejan de investigar y desarrollar al respecto, sino que muestra la oposición de IBM al su uso para la vigilancia masiva, la elaboración de perfiles raciales, las violaciones de los derechos humanos y las libertades básicas.
"La tecnología puede aumentar la transparencia y ayudar a la policía a proteger a las comunidades, pero no debe promover la discriminación o la injusticia racial", asegura Krishna. "Creemos que ha llegado el momento de iniciar un diálogo nacional sobre si los organismos encargados de hacer cumplir la ley deben emplear la tecnología de reconocimiento facial y cómo hacerlo".
IBM ya no ofrece reconocimiento facial
IBM, por tanto, ya no ofrece soluciones de reconocimiento facial o análisis de uso general. El software encargado de estas tareas que tenía hasta el momento ha dejado de comercializarse, según la carta que la propia empresa ha publicado.
La decisión es trascendente tratándose de un gigante de la tecnología y, asimismo, uno de los mayores proveedores de soluciones tecnológicas de las autoridades estadounidenses. Se trata de una decisión ética —fundamentada en la argumentación de Arvind Krishna, que incluso sugiere una reforma policial para que la policía sea todavía más responsable de malas conductas, justo en plena ola de protestar antirracismo— e, indirectamente, también económica.
De acuerdo con CNBC, el negocio del reconocimiento facial de IBM no generó ingresos significativos para la compañía según una persona relacionada.
El uso del reconocimiento facial para vigilancias masivas lleva tiempo cuestionado. Pese a los avances que se ha producido en las tecnologías que lo hacen posible, su utilización con ciertos fines no está bien visto por los activistas en pro de la privacidad y los derechos civiles. Además, con frecuencia se detectan sesgos producidos por los datos que alimentan su aprendizaje.
Ver todos los comentarios en https://www.genbeta.com
VER 2 Comentarios