"La humanidad podría decidir no morir": la advertencia de un experto en IA que insta a destruir sus centros de entrenamiento

Eliezer Yudkowsky apunta a prohibir que se siga desarrollando el entrenamiento de GTP-4

8802ddb3 4930 488e 87ec E58b9fa34eda
4 comentarios Facebook Twitter Flipboard E-mail

Hemos hablado largo y tendido durante muchas ocasiones sobre la cara positiva de la inteligencia artificial: ayudarnos a buscar información, subtitular un vídeo, crear imágenes increíbles a través de una frase... Pero también hay que ver el lado negativo que es el peligro de tener una tecnología tan potente en nuestras manos. Son muchos los expertos que hablan de este peligro como el propio CEO de OpenAI o gente reputada en el sector como Eliezer Yudkowsky.

A priori este nombre no te dirá absolutamente nada, pero estamos hablando de una persona que lleva años estudiando sobre inteligencia artificial, primero de manera autodidacta y luego bajo la tutela de uno de los mayores expertos en IA como es Nick Bostrom. Ahora, Yudkowsky ha querido hablar (nuevamente) de los grandes peligros que tiene la IA en nuestras manos.

Llega al extremo con la inteligencia artificial

En una reciente entrevista concedida a The Guardian ha querido insistir nuevamente en que la humanidad corre peligro por culpa de la IA. Decimos que es un nuevo intento de aviso porque ya el año pasado pudimos leer un artículo de opinión en Time donde aseguraba que había que tomar medidas radicales contra la IA.

Estas medidas pasaban por lanzar ataques aéreos contra los centros de datos donde se está gestando el entrenamiento de las diferentes inteligencias artificiales. E incluso llegaba a afirmar que había que usar bombas nucleares para acabar con esta amenaza paral a humanidad.

6dcb74e3 5bd6 4ad5 A7be 4bdeee8d2f04

"Si me pones contra una pared y me obligas a poner probabilidades a las cosas, tengo la sensación de que nuestro tiempo restante actual se parece más a cinco años que a 50 años. Podrían ser dos años, podrían ser 10". Con estas líneas nos sorprende a todos, haciendo referencia al apocalipsis de Terminator. Y es que piensa que las IA evolucionarán hasta equipararla con una "civilización alienígena que piensa mil veces más rápido que nosotros".

Y es que bajo su pensamiento, las IA pueden llegar a un punto en el que se vuelvan en nuestra contra, y que sean tan inteligentes que no haya manera de poder controlar sus acciones. Su solución pasaría por bloquear el desarrollo de los modelos actuales. Literalmente afirma que "Se podría decir que a nadie se le permite entrenar algo más potente que el GPT-4. La humanidad podría decidir no morir y no sería tan difícil".

El hecho de que la IA no entienda que se debe preocupar por la especie humana es algo que seguramente le quite el sueño por sus palabras: "Sin la precisión y preparación, el resultado más probable es que una IA no haga lo que queremos y no se preocupe por nosotros ni por la vida sensible en general".

Pero como decimos, no está solo. Hay una gran parte del mundo tecnológico que apunta también a este peligro, y más cuando llega el punto en el que muchas tareas las estamos dejando en mano de la inteligencia artificial sin pensar que se pueden volver en nuestra contra. Stephen Hawking ya firmó una declaración en 2014 sobre sus peligros, siendo uno de los nombres más referentes en este sentido.

Imágenes | Generadas por Bing Image Creator por José Alberto Lizana

En Genbeta | Seis webs donde ya puedes dibujar con inteligencia artificial y convertirte en todo un artista

Comentarios cerrados
Inicio