Microsoft ha creado una de las cinco más potentes del mundo (basada en Azure y dotada de 285.000 procesadores) y la ha cedido para uso exclusivo de OpenAI, la organización de investigación de inteligencia artificial 'fuerte' que Elon Musk ayudó a fundar hace unos años.
La compañía lo ha anunciado en el marco de la conferencia Build 2020, reconvertida en evento online para desarrolladores. Y, a la hora de explicar qué tipo de avances pueden lograrse gracias a la IA y a su supercomputadora, nos ha presentado lo que podría ser el inicio de una revolución a la hora de escribir código de software.
Kevin Scott (director de tecnología de Microsoft) y Sam Altman (CEO de OpenAI) nos muestran en un vídeo un ejemplo de creación automática de código: en el mismo, el programador inicia la escritura de un método en código Python, añade un comentario explicando en lenguaje natural no lo que hace el código ya escrito, sino lo que debe hacer el código que falta… y la inteligencia artificial lo genera.
Y si algo falla, el programador sólo debe rehacer el comentario para 'explicarse' mejor. Pero no sólo es capaz de elaborar código a partir de lo escrito por el desarrollador humano, sino también de evitar generar código superfluo: en el vídeo vemos cómo hace uso de otros fragmentos de código previos, co-creados por hombre y máquina.
"Todo esto prueba que este modelo es capaz de generar sugerencias de código útiles y ajustadas al contexto, que lograrán que cualquier desarrollador sea más productivo (…) y le permitirán pasar menos tiempo en repetitivos y largos procesos de codificación y centrarse más en los aspectos creativos de la programación de software".
GPT-2: de fabricante de 'fake news' a programador virtual
Pero, ¿de dónde ha salido esta tecnología?
Hace más de un año, OpenAI sembró la polémica en el sector tecnológico anunciando que había desarrollado una inteligencia artificial tan peligrosa que no pensaban publicar la versión completa de la misma para evitar que se le diera un mal uso (terminaron rectificando).
Esta IA, bautizada como GPT-2, no tenía la capacidad de operar misiles termonucleares ni nada por el estilo, sino la de generar automáticamente, a partir de unas pocas palabras, largos textos de 'apariencia humana' capaces de alimentar noticias falsas.
GPT-2 es, técnicamente, un 'modelo de lenguaje': una inteligencia artificial capaz, por ejemplo, de "saber" cuál ha de ser la siguiente palabra de un texto en función de todas las palabras anteriores.
Logra eso gracias a recurrir a técnicas de procesamiento del lenguaje natural capaces de comprender no sólo la semántica de las palabras sino las relaciones que se establecen entre las mismas dentro de un texto.
Dicha capacidad de comprensión le permite realizar diferentes tareas (no sólo escribir, también resumir o traducir) y manejar diferentes idiomas, según con qué datos alimentemos al modelo a la hora de entrenarlo. Se le puede alimentar con artículos periodísticos en inglés o español... o con código escrito en Python o Java. Por ejemplo.
Según cuenta Altman en el vídeo, usaron la supercomputadora para entrenar el modelo alimentándolo con código open source "alojado en miles de repositorios Github". Básicamente han enseñado a una IA a programar haciendo que lea el código de miles de programas hasta que ha sido capaz de 'entender' como funciona.
Ver 12 comentarios