Los laboratorios de Facebook AI Research (FAIR), la división de investigación en inteligencia artificial de Meta, han creado un nuevo 'chatbot' (una IA destinada a conversar con humanos, vaya). Es capaz de participar en conversaciones generalistas, pero también de responder, según sus creadores, a la clase de preguntas que podríamos querer hacerle a un asistente digital —como, por ejemplo, "hablar sobre recetas de alimentos saludables"—.
Pero quizá lo más destacable de este bot, bautizado por los ingenieros de Meta como BlenderBot3, es que cualquiera puede conversar con él a través de un sitio web (por ahora, sólo cualquiera que resida en EE.UU., pero nada que una VPN no pueda solventar)… por no mencionar que su código y datos de entrenamiento están disponibles en un repositorio público, junto a las variantes del modelo más sencillas (la completa, con 175 millones de parámetros, está disponible en este formulario).
Lanzando a este chatbot directamente a la arena de Internet, Meta no busca que BlenderBot3 aprenda a conversar de la mano de los humanos (como otros experimentos previos de otras compañías, que fracasaron terriblemente al subestimar la actitud 'troll' de los humanos… y cuando alcanzaron los titulares fue para advertir de su conversión en IAs 'racistas'), sino que pretende animar a los usuarios a que se 'chiven' de las respuestas inapropiadas de BlenderBot3, quien por ahora no es más que un prototipo.
Así, los interlocutores del bot de Meta podrán marcar cualquier respuesta que éste proporcione y que los usuarios consideren 'sospechosa' o 'inadecuada', si bien también deberán acceder a que se recopilen sus datos, de tal manera que sus conversaciones puedan ser almacenadas, procesadas y publicadas por los investigadores.
"Nos comprometemos a publicar todos los datos que recopilamos en la demostración con la esperanza de que podamos mejorar la IA conversacional",
¿El objetivo de todo esto? "Minimizar el uso de lenguaje vulgar, insultos y comentarios culturalmente insensibles por parte de los bots". Es decir, evitar repetir el error que Microsoft cometió con Tay en 2016.
Salir del 'invierno de la IA conversacional'
De hecho, según la responsable de ingeniería de IA de Facebook, Mary Williamson, mientras que Tay fue explícitamente diseñado para aprender en tiempo real de las interacciones de los usuarios, BlenderBot3 es un modelo estático (es capaz de recordar lo que los usuarios dicen dentro de una conversación, pero estos datos no se integran en el modelo de forma automática y sobre la marcha).
Según Williamson, el caso de Tay resultó "desafortunado, porque dio pie a un 'invierno de los chatbots' donde todas las instituciones empezaron a tener miedo de lanzar chatbots públicos para la investigación", y sólo se avanzó en la creación de chatbots no generalistas, sino orientados a tareas. Ella sostiene que, sin embargo, el verdadero avance radicaría en construir un sistema de IA capaz de hacer frente a una conversación tan natural como la humana.
Vía | The Verge
Ver todos los comentarios en https://www.genbeta.com
VER 0 Comentario