Así quiere evitar OpenAI las "alucinaciones" de ChatGPT: acercándose más al pensamiento humano

El uso de inteligencia artificial tiene numerosas ventajas en nuestro día a día, pero también desventajas con problemas graves como sus “alucinaciones”. Y es que las IA generativas como ChatGPT tienen que dar una respuesta aunque no se las sepan del todo, y de esta manera nacen las “alucinaciones”.

Estas alucinaciones al final pueden provocar que se genere información falsa como ya vimos en el vídeo presentación de Bard donde se dijo una afirmación falsa sobre el Telescopio Espacial James Webb. Y esto provocó un gran revuelo, sumándose a diferentes afirmaciones hechas por ChatGPT que se usaron en altos tribunales.

Un vistazo a…
ZAO, la APP MÓVIL china que a través de DEEPFAKE te convierte en DICAPRIO en SEGUNDOS

OpenAI quiere arreglar las imprecisiones

Para poder paliar este problema, OpenAI ya trabaja en diferentes sistemas para evitar estas alucinaciones. La nueva estrategia que se está poniendo encima de la mesa, según CNBC, es entrenar a los modelos de IA para recompensarse a sí mismos siempre que hagan el buen recurrido. De esta manera no se premiará únicamente la conclusión final a la que llega el modelo de inteligencia artificial.

Este nuevo enfoque recibe el nombre de "supervisión de procesos" y no "supervisión de los resultados", teniendo al final una IA que se pueda explicar mucho mejor y que tenga una cadena de razonamiento que se parezca mejor a la humana. Al final aprenderá de sus propios errores, pero de manera interna a cómo ha llegado a una conclusión que a priori es errónea.

Si bien, OpenAI no es la creadora de este nuevo sistema de revisión de toda la línea de proceso pero si que va a darle un gran apoyo para terminar implementándolo en sus IA. Pero hay cierto escepticismo con este método por parte del asesor principal del Centro de Información de privacidad electrónico que le gustaría revisar todos estos datos l completo y los ejemplo que le acompañan. Además, solicita una segunda investigación para poder llegar a una conclusión clara si OpenAI no ha hecho una verificación por pares.

Hay que tener en cuenta que OpenAI tampoco ha desvelado cuándo van a implementar esta nueva estrategia en todos sus productos como ChatGPT. Pero obviamente siempre es interesante saber que las empresas están trabajando de manera activa en solventar todos estos errores para tener una IA precisa y que no se invente las cosas.

En Genbeta | Google acaba de enseñar el futuro de su buscador: Bard va a destrozar cómo hemos buscado durante 25 años

Ver todos los comentarios en https://www.genbeta.com

VER 3 Comentarios

Portada de Genbeta