Debemos pensar seriamente en poder 'desconectar' la IA cuando llegue a este punto, según el ex CEO de Google

Eric Schmidt tiene claro cuándo habremos sobrepasado la línea roja: cuando la IA empiece a mejorarse a sí misma

IA
1 comentario Facebook Twitter Flipboard E-mail

La inteligencia artificial evoluciona a una velocidad vertiginosa en los últimos tiempos, por lo que se agradece que voces influyentes de la industria intenten resaltar tanto los beneficios como los peligros de esta tecnología.

Durante una entrevista reciente con ABC News, Eric Schmidt (ex-CEO de Google) advirtió que la Humanidad debe prepararse para un futuro en el que los sistemas de IA sean capaces de mejorar por sí mismos, con resultados potencialmente catastróficos.

Meter al genio en la botella cuando ya está fuera

Schmidt explicó que los avances en IA, que actualmente se centran en herramientas específicas como asistentes virtuales o generadores de texto, podrían dar paso a sistemas mucho más complejos y autónomos. Según Schmidt,

"con el tiempo, se le dirá al ordenador: 'Aprende todo y haz todo', y habremos llegado a un punto peligroso".

Este hito, conocido como IA General (AGI, por sus siglas en inglés), implicaría que las máquinas sean capaces de realizar cualquier tarea intelectual accesible a la mente humana.

El verdadero problema radica en que, llegados a ese punto, estas máquinas podrían ser capaces de auto-mejorarse, lo que las llevaría a superar incluso las capacidades humanas en todas las áreas (lo que se denomina superinteligencia artificial).

Para Schmidt, eso convertiría en algo esencial tener a nuestra disposición un mecanismo de control —un "interruptor de apagado"— para desactivar los sistemas en caso de emergencia. Sin embargo, plantea una duda inquietante: ¿será posible para los humanos mantener el control sobre máquinas tan avanzadas?

Según los CEO de Anthropic y OpenAI, podríamos alcanzar la AGI en fechas tan tempranas como 2026 o 2027... pero debemos recordar que las empresas tecnológicas tienen incentivos para exagerar

Advertencias / optimismo / regulación

Schmidt no está solo a la hora de expresa esta clase de preocupaciones: Geoffrey Hinton, conocido como el 'Padrino de la IA', afirmó en su momento que no ve un camino claro para garantizar la seguridad en la era de la AGI; incluso Elon Musk señaló que existe una probabilidad de entre un 10% y un 20% de que la IA tenga consecuencias "devastadoras".

Aunque las advertencias suenen alarmantes, estas figuras también reconocen los inmensos beneficios de la IA. Schmidt lo expresó con optimismo:

"El poder de esta inteligencia significa que cada persona tendrá el equivalente a un erudito en su bolsillo".

Es decir, la IA podría convertirse en un aliado que potencie la creatividad y la productividad a niveles nunca antes vistos. Ahora bien, eso se aplicará a 'cada persona', y muchas personas se dedican a cosas en las que cualquier ayuda que reciban se convierte en un peligro para el resto.

Regulación: un camino aún incierto

La evolución de la IA plantea un dilema urgente: ¿quién regula estas tecnologías? Schmidt enfatizó que el desarrollo de la IA no debería quedar exclusivamente en manos de tecnólogos. Junto con el fallecido Henry Kissinger, coautor del libro 'Genesis: Artificial Intelligence, Hope, and the Human Spirit', Schmidt abogó por un papel activo de los gobiernos en la supervisión de estas tecnologías.

Vía | Fortune

Imagen | Marcos Merino mediante IA

En Genbeta | "La humanidad podría decidir no morir": la advertencia de un experto en IA que insta a destruir sus centros de entrenamiento

Inicio