Si hay algo que ha cambiado el desembarco de GPT-4 es la percepción de la industria y los expertos sobre la AGI (IA general), un concepto que hace un año mucha gente debatía si era incluso factible, y sobre la que ahora se debate cuándo lo será. Hace unos meses, OpenAI publicó una reflexión acerca de qué políticas deberíamos aplicar cuando la AGI se materialice.
OpenAI y su CEO Sam Altman han hecho gala de una actitud algo esquizofrénica con respecto al peligro de la IA: lo mismo saltan a los titulares por primera vez por decir que su GPT-2 iba a inundar el mundo de noticias fake como atacan la carta abierta de Elon Musk que pedía aplazar 6 meses el desarrollo de GPT-5, por alarmista.
Y a todo esto, os recordamos que Altman tiene un búnker en el desierto para protegerse de una rebelión contra la humanidad por parte de la IA, una tecnología cuyo desarrollo… lidera él mismo. Todo muy loco, o muy de promover el hype, según a quién preguntes. Pues bien, en esa línea, hoy OpenAI es noticia por haber publicado un nuevo documento de propuestas pensando en cuando logremos desarrollar… la superinteligencia artificial.
¿Y qué es eso de 'Superinteligencia' y en qué se diferencia de la AGI? Pues veamos:
- El término 'AGI' (siglas de IA general, en ocasiones traducido como 'IA fuerte') designa a un sistema de inteligencia artificial que posee la capacidad de entender, aprender y aplicar conocimientos en una amplia variedad de tareas de manera equivalente a un ser humano, incluyendo la capacidad de razonamiento abstracto, aprendizaje rápido, resolución de problemas complejos y adaptación a nuevas situaciones.
- Por el contrario, la superinteligencia artificial designa a una IA que supera de manera significativa la capacidad intelectual de cualquier ser humano en prácticamente todos los aspectos, siendo capaz de resolver problemas complejos a una escala y velocidad mucho mayores de lo que cualquier ser humano sería capaz. Esto ya son palabras mayores, porque hablamos de hacer real la posibilidad teórica de crear una inteligencia tan alejada de la nuestra como la nuestra lo está de los animales inferiores.
¿Qué defiende el documento de OpenAI?
"Es concebible que, a lo largo de los próximos diez años, los sistemas de IA superen el nivel de habilidad de los expertos en la mayoría de los campos y lleven a cabo tanta actividad productiva como cualquiera de las grandes corporaciones actuales".
"En términos de ventajas y desventajas potenciales, la superinteligencia será más poderosa que otras tecnologías con las que la Humanidad ha tenido que lidiar en el pasado", afirma Altman en el artículo (que firma junto a otros dos directivos de la compañía, Greg Brockman e Ilya Sutskever), publicado hora después de su visita a España.
La opinión de OpenAI es que debe haber cierto grado de coordinación "entre los principales esfuerzos para garantizar que el desarrollo de la superinteligencia ocurra de una manera que nos permita mantener la seguridad y ayudar a la integración fluida de estos sistemas con la sociedad".
Ciertamente, es ahora cuando los organismos parlamentarios tanto de la UE como de los de EE.UU. se están sentando en serio a debatir la normativa que deberá regular la actual generación de tecnología IA, con todos los problemas que plantea para la privacidad, para el copyright y —si de verdad nos tomamos en serio esto de la superinteligencia— para la supervivencia de la especie humana.
En realidad, el artículo aporta poco nuevo al discurso que Altman sostuvo ante los senadores estadounidenses en la sesión de hace unos días (muy criticada por el visible compadreo entre reguladores y regulados). Así, defiende que
"Cualquier iniciativa por encima de un cierto umbral de capacidad (o recursos como computación) deberá estar sujeta a una autoridad internacional que pueda inspeccionar sistemas, requerir auditorías, probar el cumplimiento de los estándares de seguridad, imponer restricciones en los grados de implementación y niveles de seguridad, etc.".
Una autoridad internacional para la que plantean el modelo de la Agencia Internacional de la Energía Atómica. Quizá porque lo que tenemos entre manos es igual de peligroso.
Imagen | Generada por Marcos Merino usando IA
Ver todos los comentarios en https://www.genbeta.com
VER 3 Comentarios