La Inteligencia Artificial está evolucionando a pasos agigantados. Desde la supuesta IA de Google que tiene sentimientos, a ahora la tecnología de Microsoft que puede reconocer el estado emocional. Pero Microsoft quiere ha querido adelantarse, regulando este tipo de tecnologías, restringiendo el acceso a estos servicios de reconocimientos facial avanzados.
Estas normas que ha establecido la compañía con sus tecnologías tienen como objetivo que existan buenas prácticas en torno a ello. Esto quiere decir que se usen siempre con responsabilidad y dentro de un marco ético adecuado.
Se necesitan ganar a la sociedad completamente
Estas medidas han sido presentadas por Natasha Crampton que es la directora responsable de la IA de Microsoft. En este caso, reconoce que es necesario establecer serias normas de uso sobre esta tecnología para poder ganarse la confianza de la sociedad. Esto se ha traducido de manera interna en una restricción a los clientes a acceder, por ejemplo, a una inteligencia artificial específica que reconoce emociones.
A priori esta tecnología realmente interesante, ya que con una IA se podría llegar a reconocer si una persona está triste o feliz al momento. Pero esto es algo que va a quedar ahora completamente restringido con el objetivo de que desaparezca. Igualmente la empresa afirma que también va a bloquear el hecho de que se pueda determinar el género, la edad, el peinado o un maquillaje de una persona a través de un simple algoritmo.
De esta manera, Microsoft ahora tiene que ir refinando sus políticas y aprendiendo de las experiencia de sus productos. Es importante que se termine imponiendo una política ética dentro de las grandes tecnológicas para que tengan el mejor control posible sobre todos los resultados que van generando con sus productos. Y sin duda es algo que también se debe aplicar en el resto de desarrolladores, como por ejemplo Google AI.
Aparte de esto, en la nota también se reconoce que puede llegar a crearse una desigualdad por culpa de las IA. Esto se debe a que diferentes estudios han probado que en las pruebas de la tecnología para pasar de voz a texto se produce una mayor tasa de error en las comunidades afroamericanas que en usuarios blancos. Esto hace que Microsoft se planteara que las pruebas realizadas por ellos mismos para el desarrollo no contaron con la riqueza cultural que tiene el mundo. Y es por ello, que han tenido que volver a implementar varias políticas de ética con el objetivo de ser los más justos posibles.
Ver todos los comentarios en https://www.genbeta.com
VER 1 Comentario