"La respuesta indiferente de la Humanidad ante la amenaza de la superinteligencia [artificial] me hace sentir que estoy en la película 'No mires arriba'", afirmaba hace unas horas Max Tegmark —cosmólogo del MIT conocido por haber formulado la 'Última Teoría del Todo'— en referencia a la película de DiCaprio y Jennifer Lawrence que parodia la supuesta actitud de medios, políticos y público hacia la verdad científica.
A esto le ha contestado Yann LeCun, el académico experto en deep learning reconvertido en gurú de la inteligencia artificial de Meta (lleva una década al frente del Facebook AI Research), conocido por quitar hierro a los avances de la IA que llenan los titulares de los medios. Así, sobre el ChatGPT de OpenAI decía el pasado mes de enero que
"No es nada revolucionario, sólo está muy bien armado".
¿Y qué opina LeCun sobre el hecho de que Tegmark le sitúe a él y a otros con sus mismas ideas en el mismo plano de los caricaturescos negacionistas de 'No mires arriba'?
"Oye, Tegmark, la mayoría de nosotros sabemos que las máquinas superinteligentes del futuro tendrán que ser alineadas con los valores humanos, sencillamente no creemos que sea tan difícil como tú lo ves. Y no creemos que hacerlo un poco mal sólo una vez signifique la condena de la Humanidad".
"Preocuparse por la alineación de la IA sobrehumana hoy en día es como preocuparse por la seguridad del motor turborreactor en 1920 [Nota: esta clase de motor no empezó a desarrollarse hasta finales de los años 30]. No tenemos un diseño funcional para [lanzar] nada que pueda llegar a ser tan inteligente como un perro, y mucho menos un robot doméstico que pueda limpiar la mesa y llenar el lavavajillas".
El debate sobre el peligro potencial de la IA, sin duda, se está polarizando a ojos vista, sin que se aprecie nada remotamente similar al 'consenso científico' que se enarbola en otros campos del saber para dictaminar qué es o no 'alarmista'.
¿Quién tiene menos imaginación?
Si ayer era Paul Christiano (el antiguo líder del equipo responsable de que ChatGPT y otros modelos de lenguaje de OpenAI no se vuelvan contra nosotros) el que sentenciaba "Creo que lo más probable es que muera a manos de una IA", ahora LeCun lidera al bando contrario del debate con sus intervenciones en Twitter.
LeCun considera que es "absurdo" pensar que las IAs que creemos se dedicarán a destruir o a someter a la Humanidad. "Tendrían que estar diseñadas específicamente para hacerlo… y es obvio que las diseñaremos para que no lo hagan", sostiene.
"Pensar que no seremos capaces de diseñar máquinas al servicio de la Humanidad revela una grave falta de imaginación. Eso, o un complejo de superioridad fuera de lugar del tipo de 'No puedo encontrar una manera de hacer que estas cosas sean seguras, así que debe ser imposible'".
En realidad, sus rivales dialécticos, los 'alarmistas de la IA' como Christiano y Tegmark no dicen necesariamente que no seremos capaces, sino que basta con que los creadores de una de las muchas IAs avanzadas que se desarrollen en el futuro no lo hagan (para no retrasar un lanzamiento, por ejemplo) para que todo se vaya al guano.
Ya ni hablemos de las estupideces que es capaz de cometer el ser humano al diseñar tecnología para la guerra, por ejemplo. O del peligro de iniciar escaladas armamentísticas que obliguen a entrar en la dinámica de la destrucción mutua asegurada.
Si pudimos con los aviones, ¿podremos con la IA?
Sin embargo, LeCun sin duda señala algunas ideas que sirven de necesario contrapunto a la postura menos favorable a la IA. Según explica, lograr la seguridad de ésta será "un proceso de refinamiento iterativo", como ya pasó con coches y aviones. Y, al igual que con estos, "hacerlo un poco mal puede lastimar a algunas personas, pero no acabará con la Humanidad".
"No digo que vaya a ser fácil, pero hacer que suene como si fuera un problema irresoluble es, como mínimo, extremadamente prematuro y muy probablemente simplemente falso. Pero independientemente de todo eso, hasta que no contemos con un diseño mínimamente creíble, estamos discutiendo sobre el sexo de los ángeles".
Además de todo esto, dado que el miedo de Yudkowsky (el experto que piensa que Elon Musk es demasiado optimista frente a la IA) se centra en que la IA tome de pronto el control de todo (el escenario Skynet), LeCun argumenta que se trata de un escenario imposible, citando un extenso hilo de otro experto que muestra todos los obstáculos a los que se enfrentaría una IA rebelde para automejorarse e interactuar con el mundo físico.
El argumento no parece haber convencido ni al propio Elon Musk, quien le ha pedido que enfoque el asunto de manera más amplia y contemple una "métrica fundamental", que muestra con qué rapidez vamos a ser superados (y también lo harán las contramedidas en que podamos llegar a pensar):
"[La clave], en mi opinión, es la relación entre el ritmo temporal de la computación digital y la computación biológica. Parece una pared".
El debate sólo acaba de empezar.
Imagen | Generada por Marcos Merino usando IA (Mage.space)
Ver todos los comentarios en https://www.genbeta.com
VER 10 Comentarios