Pese a reconocerse como poco amigo de la regulación y la supervisión, el hombre que construye una nave espacial para llevar personas a Marte cree que la inteligencia artificial es un campo que necesita ser acotado. Elon Musk está convencido de que el peligro de la inteligencia artificial es mucho mayor que el de las cabezas nucleares. Así lo ha asegurado este domingo.
Recuerda mis palabras: la IA es mucho más peligrosa que las armas nucleares, así que por qué no tenemos supervisión regulatoria, esto es una locura.
El fundador de SpaceX aseguró sobre el escenario del evento South by Southwest, que se celebra hasta el próximo fin de semana en Austin, Texas, que en el caso de la inteligencia artificial "existe un peligro muy grave para el público, por lo que es necesario que exista un organismo público que tenga visión y luego supervisión para confirmar que todos están desarrollando la IA de manera segura, lo cual es extremadamente importante".
"La IA es capaz de hacer muchísimo más de lo que cualquiera sabe"

Según recoge ZDNet, refiriéndose a AlphaGo y a su predecesor AlphaGo Zero, Musk aseguró que la inteligencia artificial es capaz de hacer muchísimo más de lo que cualquiera sabe y que su tasa de mejora también es exponencial.
De ser incapaz de enfrentarse a un jugador de Go razonablemente bueno, la IA de Google derrotó a varios campeones mundiales del juego, entre ellos al 18 veces campeón del mundo Lee Sedol, en unos pocos meses. Su evolución, AlphaGo Zero, aplastó a AlphaGo 100 a 0 aprendiendo a jugar por sí sola. Musk asegura que "nadie predijo esta tasa de mejora" y vaticina que para finales de año la conducción automática sea, al menos, un 100 o 200 % más segura que la conducción de un humano.
Volviendo a los peligros, el visionario empresario declaró que la carrera por la inteligencia artificial podría desembocar en la Tercera Guerra Mundial. Aseguró, además, estar preparándose para la posibilidad de otra Edad Oscura al tiempo que planifica su aventura a Marte.
El peligro de la IA es mucho mayor que el peligro de las cabezas nucleares, por mucho, y nadie sugeriría que permitamos que cualquiera pueda construir cabezas nucleares si lo desea; eso sería una locura. [...]
Si es probable que haya otra Edad Oscura y mi suposición es que probablemente la habrá en algún momento... Particularmente si hay una Tercera Guerra Mundial, querremos asegurarnos de que haya suficiente semilla de civilización humana en algún otro lugar para traer la civilización de vuelta y acortar la duración de la Edad Oscura.
Elon Musk piensa que una base en Marte y una base en la Luna podrían ayudar a regenerar la vida en la Tierra en caso de una contienda bélica que implicase a la práctica totalidad del planeta, por esa razón opina que establecer humanos en otras partes es un asunto importante. También cree que los humanos deberían dar forma a la inteligencia artificial como una extensión de su cuerpo, a través de una integración mediante "electrodos diminutos que sean capaces de leer directamente el cerebro".
Imagen | Web Summit (CC BY 2.0)
En Genbeta | Steve Wozniak cree que Elon Musk "es sólo un buen comercial, como Steve Jobs"
Ver 8 comentarios
8 comentarios
Usuario desactivado
No hace más que meter miedo sin dar un solo motivo consistente que lo fundamente.
Debemos tener miedo de la IA porque sabe jugar al Go como nadie? Debemos tener miedo porque el entrenamiento de solo unos meses le permitió ganar al mejor jugador humano de Go?
Pues debo ser un valiente, porque a mi esto no me asusta. ¿Qué hay de peligroso en esto? ¿A qué vienen las armas nucleares? Go es un problema muy específico. Entrenar una IA que juegue a Go no va a crear un cyborg con conciencia de sí mismo que aniquile la humanidad como en las pelis. No existe esa IA, ningún experto en IA ha dicho jamás que se pueda hacer algo así, porque los expertos en IA son conscientes de las tremendas limitaciones que tiene esta tecnología.
Jugar al Go es una cosa, lo que llamamos "inteligencia" es algo muy distinto. Ni siquiera sabemos bien qué es la inteligencia, porque la asociamos a los humanos, o a los animales, pero aun no sabemos cómo funcionan realmente nuestros cerebros. Así que no tenemos todavía una verdadera definición de inteligencia, no te digo ya crear una "inteligencia artificial".
Me parece que este hombre debe tener o mucha imaginación o algún interés oculto en meter miedo a la gente. Por eso no hace más que insistir, y mete al debate palabras fuertes como "cabezas nucleares" y cosas por el estilo. En definitiva, que me da que lo que está haciendo es vendernos alguna moto.
El día que de verdad hable de los peligros reales entonces haré caso. Hasta entonces la IA que juega al Go no creo que me quite el sueño.
JuanAR
Para unas cosas es un crack, pero con esto está perdiendo la cabeza. Como comenta thebronx el jugar a Go simplemente le hace experto en... Jugar al Go.
st4ry4g
Sencillamente lo que ocurre es que quiere vender sus viajes a la Luna y Marte. Que mejor manera que diciendo que la Tierra es insegura.
"Chicos que viene la Tercera Guerra Mundial, subiros en mis naves y os salvaréis"
Usuario desactivado
Quizás podría infiltrarse fscilmente en otras computadoras o tomar mando de algo a distancia y generar caos pero tanto como una guerra mundial devastadora creo que no.
lorabe
Okey, tomemos en cuenta lo que dice Elon como un punto válido. La inteligencia artificial ha demostrado tener un crecimiento y mejora más arriba de las expectativas, un ejemplo es AlphaGo.
La pregunta es, ¿cómo pasas de AlphaGo a armas nucleares, dominación mundial y demás cosas?, la respuesta hoy no la tiene la Inteligencia Artificial, la inteligencia artificial no posee voluntad, no puede tomar decisiones fuera de para lo que fue programada.
Si una inteligencia artificial es buena en el Go, no pasará a ser buena en la defensa nacional, hasta que la entrenen, y yo no le daría los privilegios para controlar partes sensibles como armas nucleares (que no es lo que dice Elon, solo asume que la IA es más peligrosa que las armas nucleares).
En ese sentido, es totalmente responsabilidad del hombre, no programar una IA destructiva. Aquí es donde los focos deberían ponerse, y si estoy de acuerdo con la regulación. Espero que las empresas de tecnologías que actualmente la aprovechan como Google o Facebook, no hagan alianza con la defensa nacional de EUA, aquí sería cuando tendríamos que prender alertas rojas.
max_adam
Veo que algunos toman la inteligencia artificial descrita aquí como solo "Puede jugar al Go, nos va a aniquilar a todos" y lo subestiman.
Ya sabemos que por ejemplo Boston Dynamics está desarrollando robots para mejorar su movilidad en cualquier terreno y sobrepasar obstáculos. Si a esto se le coloca armas junto a un IA para identificar humanos y matarlos con precisión sin importar quien sea, eso si sería un peligro.
Suponiendo que se está en una tercera guerra mundial seguro cada país hará lo posible para que el robot mientras está en terreno pueda suplir sus necesidades básicas como recargarse, automantenimiento o reparaciones simples, analizar situaciones y tomar decisiones sin necesidad de una persona al lado.
El temor no es por lo que puede hacer ahora sino la velocidad con la cual está avanzando el desarrollo de esta tecnología.
Aunque lo de peor que una amenaza nuclear, eso si lo veo exagerado.