'Podrían ser dos años o diez': este experto en inteligencia artificial vaticina cuánto tiempo le queda a la humanidad

Cuando una voz autorizada lanza una advertencia así, mejor escucharle y tomar medidas

Ia
9 comentarios Facebook Twitter Flipboard E-mail

Con la inteligencia artificial es difícil encontrar medias tintas: su potencial para el bien es tan enorme como devastadores sus efectos aplicados al mal. O incluso, simplemente, su capacidad de destrucción. Porque el que es sin lugar a dudas la mayor innovación de los últimos años de la humanidad podría ser paradójicamente quien la llevara a su destrucción. O eso cree Eliezer Yudkowsky, investigador y académico estadounidense miembro del Instituto de Inteligencia Artificial de la prestigiosa Universidad de Berkeley.

The Guardian ha entrevistado a Yudkowsky y sus palabras dejan poco margen de duda sobre su poco halagüeña perspectiva de la humanidad y lo peor es que la fecha de extinción que estima está verdaderamente cerca. No es la primera vez que el investigador muestra su catastrofista punto de vista sobre el asunto ni que oímos a una persona experta hablar en estos términos pesimistas: Elon Musk ya lo hizo hace meses.

En cualquier caso y en última instancia, no deja de ser una advertencia que invita a implementar esta tecnología con cautela. Así, la Unión Europea aprobó hace unas semanas una ley pionera que ya contempla "riesgos inaceptables" para nuestra seguridad y la Organización de las Naciones Unidas ha hecho lo propio con una ley mundial para salvaguardar los derechos humanos, proteger los datos personales y vigilar los potenciales riesgos de la inteligencia artificial.

Las predicciones de Yudkowsky y cómo deberíamos ver la IA

Porque cuando un experto como Eliezer Yudkowsky hace este tipo de declaraciones, es para tomárselo en serio. En la entrevista, matiza que si alguien le pone en una situación extrema para definir las probabilidades del fin de la raza humana, los plazos se acortan trágicamente: 'tengo la sensación de que, mirando nuestro calendario actual, estamos más cerca de que suceda en cinco años que en 50 años. Podría ser en dos años, podrían ser diez'.

Porque según Yudkowsky que una inteligencia artificial adquiera conciencia y evolucione tan rápido que no pueda contenerse es cuestión de tiempo. El quid de la cuestión está en que la sociedad no tiene claros cuáles son sus peligros y así lo dice: 'la gente no es consciente' del peligro hacia el que nos dirigimos, motivo por el cual 'tenemos pocas posibilidades de que la humanidad sobreviva'.

Así que insta a la sociedad a cambiar la imagen que tenemos de la inteligencia artificial: 'no lo veas como un cerebro en una caja, sino como una civilización extraterrestre que piensa mil veces más rápido que nosotros'. Su punto de vista es que si le asignamos funciones peligrosas a la inteligencia artificial, esta podría ser catastrófica.

Portada |  Xataka con Midjourney

En Genbeta | Europa aprueba la primera ley de regulación de inteligencia artificial del mundo: la clave está en los usos prohibidos y sus excepciones

Comentarios cerrados
Inicio