Microsoft y el Instituto de Ciencias Sociales Cuantitativas de la Universidad de Harvard han anunciado el lanzamiento de una plataforma de código abierto enfocada a facilitar a académicos, empresas, instituciones públicas y entidades sin ánimo de lucro la implementación de técnicas de privacidad diferencial en sus proyectos tecnológicos.
Pero, para valorar la importancia de este proyecto, debemos explicar qué es eso de la 'privacidad diferencial' y cuál ha sido el papel de Microsoft en su desarrollo.
¿Qué es la privacidad diferencial?
La posibilidad de recurrir al análisis de datos masivos es un aspecto fundamental del actual auge de la inteligencia artificial, pero trae aparejadas legítimas dudas sobre la privacidad de los propietarios de dichos datos. Tal y como afirma John Kahan, director de análisis de datos de Microsoft,
"Lo preocupante es que cuanto más profundiza en los datos, más probable es que se revele información personal confidencial".
Ahí es donde entra la 'privacidad diferencial', aquellas técnicas que permiten a las empresas recopilar datos contando con la 'garantía matemática' de que los mismos no podrán ser vinculados con la identidad de quien se lo proporcionó.
Y logran esto 'inyectando' nuevos datos elaborados aleatoriamente a partir de los datos originales: lo que en estadística se llama 'ruido'.
Este ruido debe estar cuidadosamente medido: ni tan poco como para no poder cumplir con su papel de protección de la privacidad, ni tanto como para hacer que los datos se vuelvan inusables reduciendo su validez estadística.
¿Qué es Open Differential Privacy?
El objetivo de la plataforma desarrollada conjuntamente por Microsoft y la Univ. de Harvard (bautizada como Open Differential Privacy) es, como decíamos, ofrecer a los investigadores de cualquier ámbito un kit de herramientas que les permita aplicar la privacidad diferencial a sus propios proyectos. Entre estas herramientas se incluye:
Una librería para desarrolladores que trabajan con lenguajes como C, C++, Python, R y otros.
Un conector para acceder a múltiples fuentes de datos (de SQL Server a archivos CSV, pasando por Apache Spark).
Herramientas de comprobación de la pérdida de privacidad en cada consulta.
No es casualidad que Microsoft esté implicada en un proyecto como ése: fue esta compañía quien dio nombre al concepto de 'privacidad diferencial' hace ahora 14 años, cuando tres investigadores de Microsoft Research publicaron un estudio llamado 'Calibrating Noise to Sensitivity in Private Data Analysis', repleto de fórmulas matemáticas destinadas a aplicar el mencionado 'ruido' a los datos.
Vía | Microsoft
Ver todos los comentarios en https://www.genbeta.com
VER 0 Comentario