Si bien la Inteligencia Artificial es un ámbito que se encuentra en pleno desarrollo y cuyas propuestas crecen a pasos agigantados, resulta innegable que este crecimiento también ha suscitado ciertos miedos. Unas preocupaciones que acaba de reconocer la mismísima Casa Blanca y sobre la que ha decidido tomar las riendas.
De esta manera, el gobierno ha anunciado que el subcomité para el Aprendizaje automático e Inteligencia Artificial del Consejo Nacional de Ciencia y Tecnología se reunirá semanalmente con el objetivo de “monitorear” los avances de este sector. Y a pesar de que la inicia evoca inevitablemente a una mala película de ciencia ficción en la que las máquinas acaban sometiendo a la raza humana, lo cierto es que no se trata de tan mala idea como parece. Expliquémonos.
La iniciativa
Así y a partir de la semana que viene, los expertos tratarán de recabar todas las novedades de la IA y aprendizaje automático tanto en los sectores públicos como privados del ámbito internacional. Pero no solo eso, sino que se encargarán de coordinar las actuaciones federales al respecto y similares. Un “control” que no trata de mermar el progreso sino conocerlo en profundidad y aprender a regularlo.
De hecho, las citadas preocupaciones atañen precisamente a los posibles problemas derivados de una mala codificación, de un diseño poco seguro, y del alumbramiento de “algoritmos que podrían alterar drásticamente cada una de nuestras vidas”. Una decisión que, curiosamente, ha tenido lugar justo después de que el gobierno publicara un informe en el que se contemplaban los problemas asociados a un mundo excesivamente automatizado.

“Dado que los servicios basados en datos se vuelven cada vez más omnipresentes, y teniendo en cuenta que cada vez dependemos más de ellos, debemos abordar las preocupaciones sobre los sesgos intencionales o implícitos que puedan surgir de los datos y los algoritmos utilizados, así como el impacto que pueden tener en el usuario y la sociedad”, indica el documento.
“El problema surge cuando las empresas, instituciones y organizaciones utilizan sistemas algorítmicos y procesos automatizados para informar de decisiones que afectan a nuestras vidas, por ejemplo, si estamos o no en condiciones de recibir un crédito o acceder a un empleo”, remata.

Es decir, lo que se trataría de evitar con esta iniciativa es que un error en estos nuevos sistemas nos pueda conducir a la negación de una hipoteca, la inadmisión en la universidad y un largo etcétera que te puedes suponer y que tendría lugar como consecuencia de uno de los citados errores citados en las líneas previas.
Al margen de lo comentado, la Casa Blanca también patrocinará eventos relacionados que pretenden abrir, precisamente, el diálogo sobre la cuestión y que llevarán aparejados programas de investigación específicos y la presencia de expertos en la materia de la Escuela de Leyes de la Universidad de Washington y el Carnegie Mellon, que abordarán cuestiones en torno a la ética y funcionamiento de la IA.
Vía | The Next Web
Imágenes | Pixabay
En Genbeta | Así es como charlan dos inteligencias artificiales
Ver 4 comentarios
4 comentarios
raulgarcia7
En lo referente a la inteligencia artificial me abruma la ignorancia de la gente y como le esta dando coba a un tema que lleva atascado durante decadas. Voy a poner una metafora para que se entienda mejor.
La IA actual es como si desde los 70 la humanidad conociera el concepto de motor de combustión y supiera sus limitaciones exactas. Lo unico que llevan haciendo los cientificos desde entonces es mejorar la calidad de sus componentes pero no encuentran formas de quitarle sus limitaciones y mejorarla. Es decir, como si no hubieramos descubierto el turbo. (Vete tu a saber cual es el turbo en la IA) Eso quiere decir que o hacemos motores mayores o le damos potencia de motores enormes (CPU muy potentes o CPD (servidores enormes)).
No nos engañemos la IA esta atascada y por mucho avances que introduzcamos hasta que no mejoremos su base no vamos a conseguir nada. Así que no nos engañemos....
miguelabellan nosoye
“algoritmos que podrían alterar drásticamente cada una de nuestras vidas”
No puedo evitar pensar en la película Yo Robot al leer esto. Pues precisamente es lo que se ilustra.
Un robot no tiene sentimientos, actúa de forma lógica, lo cual significa que en caso de accidente salvará a aquella persona que tenga la mayor posibilidad de salvarse, aunque sea una persona adulta o un anciano al final de su vida. Le dará prioridad sobre una niña si estima que de esa forma se salvarán más vidas.