Recientemente, supimos que a comienzos de este mismo año la Oficina de Patentes de Estados Unidos le había concedido a Apple una patente (PDF) titulada "Keyworking detection using motion sensors" (Detección de palabras clave utilizando sensores de movimiento), cuyo objetivo es permitir desarrollar tecnología que permita que los asistentes virtuales como Siri, reconozcan palabras clave…
…utilizando para ello patrones de movimientos generados al hablar. Sí, de movimientos. Porque para reconocer dichos patrones de movimiento, que nuestro cuerpo produce inconscientemente al pronunciar determinadas palabras, Apple recurrirá a los acelerómetros y giroscopios presentes en iPhones y AirPods, así como a la inteligencia artificial.
Supongamos que un usuario le pide a Siri que realice una tarea específica, como configurar una alarma. Los sensores de movimiento capturarían los movimientos sutiles (y distintivos) que la persona realiza al decir "Ey Siri, pon una alarma"…
…y esos datos de movimiento se usarían para entrenar algoritmos de aprendizaje automático (o 'machine learning') que mejorarían la precisión en la detección de palabras clave, incluso en situaciones donde el micrófono no esté activo o no esté disponible.
El camino a las comodidades está plagado de nuevos peligros
Aunque esta invención promete mejorar la usabilidad de sus dispositivos —pues podría traducirse en una experiencia más fluida para los usuarios al interactuar con sus dispositivos— ser una alternativa más eficiente en términos de consumo de energía y privacidad —ya que, según Apple, el micrófono no necesitaría estar siempre activo y grabando—, también plantea otras preocupaciones igualmente serias en torno a la privacidad de los usuarios.
Y es que, según explica Chema Alonso, hacker, miembro del Comité Ejecutivo de Telefónica y experto en ciberseguridad,
"si los datos de entrenamiento que se han conseguido son suficientemente grandes, se ha hecho una curación de datos fina, y se ha ajustado bien el entrenamiento, podría llegar a reconocerse esa 'keyword' sin que hubiera señal de micrófono".
Alonso explica que, si Apple logra que el algoritmo funcione bien, dejarían de funcionar medidas que tomamos hoy en día para evitar que una app haga publicidad segmentada usando las palabras que se detectan en conversaciones —como apagar el micrófono, o no darle acceso al mismo a esa app en cuestión—, pues se podrían
"detectar keywords solo por los efectos que genera esa persona en los sensores de movimiento del terminal iPhone cuando dice determinadas palabras".
Alonso reconoce que puede sonar "un poco de ciencia ficción" hoy en día, pero que es el mismo caso que los primeros sistemas de visión artificial capaces de 'ver' las perturbaciones que generan los objetos pasando por delante de señales WiFi. O, en otro orden de cosas, parecido a los algoritmos que ya usa China para identificar a la gente por su movimiento (aunque no se le vea la cara), en los sistemas de videovigilancia.
Y ahora imagina que ocurriría si todos esos datos sobre nuestros patrones de movimiento al hablar que almacene nuestro teléfono (o los que guarde en la nube) terminan cayendo en malas manos.
Vía | Un informático en el lado del mal
En Genbeta | Nueve tareas cotidianas que la inteligencia artificial nos ha ayudado a poder hacer en segundos
Ver todos los comentarios en https://www.genbeta.com
VER 0 Comentario