Hay empresas tech que mientras van desarrollando grandes productos y herramientas de inteligencia artificial, se deshacen de sus equipos relacionados con la regulación y la ética. Primero fue Microsoft, que en marzo despidió a todo su equipo de ética para la inteligencia artificial, mientras avanzaba en coliderar su desarrollo.
Ahora ha sido Meta la que ha disuelto su división de IA Responsable, el equipo dedicado a regular la seguridad de sus proyectos de inteligencia artificial a medida que se desarrollan y despliegan, según un portavoz de Meta.
Las personas que trabajaban en este departamento no han sido despedidas, según la información disponible, sino que han sido reasignados a la división de productos de IA generativa de la compañía, mientras que algunos otros ahora trabajarán en el equipo de Infraestructura de IA.
Los grandes inventos de Meta en IA
Meta tiene su propia ChatGPT: LlaMa que ya tiene su segunda versión lanzada en verano. Se trata de un LLM que todo el mundo puede descargar y utilizarlo para todo tipo de proyectos, para investigación, fines comerciales, entornos profesionales, o simplemente para tontear un poco con él. En Genbeta la hemos probado.
También tiene es Meta AI, un nuevo sistema de inteligencia artificial presentado el 27 de septiembre, y con la que busca convertirse en una gran competidora de ChatGPT, Bing Chat o Bard. Se trata de un chatbox que busca tener cualidades para diferenciarse de la competencia.
La empresa se enfrenta en estos momentos a una megademanda en Estados Unidos por saber que sus redes sociales causan daños psicológicos en niños, niñas y adolescentes y mentir al respecto.
Las autoridades de EE.UU han advertido sobre esto
Cabe recordar que en Estados Unidos, su organismo regulador FTC, ya ha hablado de que hay muchos temas que la IA debe regular y con esto, "quizá no sea el mejor momento para que las empresas que las usan o las desplieguen, destituyan o despidan al personal dedicado a la ética y la responsabilidad", es lo que ha advertido la FTC.
Incluso el presidente de Microsoft, este verano, se unió al club de los grandes líderes que desarrollan herramientas de inteligencia artificial y las lanzan al mercado sin ninguna regulación para luego hacer alertas alarmantes. El presidente y vicepresidente de Microsoft, Brad Smith, en una entrevista a CNBC afirmaba que: la inteligencia artificial puede convertirse en un arma y los humanos deben controlarla.
A todo esto, hoy mismo, Microsoft ha anunciado que Sam Altman, que hace unos días fue despedido de OpenAI, acaba de ser fichado para liderar un equipo de investigación de IA dentro de Redmond. Altman es otro de esos hombres que repite advertencias alarmantes sobre la IA.
Qué hacía el equipo disuelto de Microsoft
La noticia fue reportada por primera vez por The Information. El equipo de IA generativa, nacido en febrero, se centra en desarrollar productos que generen lenguaje e imágenes para imitar la versión equivalente creada por humanos.
La reestructuración de IA responsable se produce cuando la matriz de Facebook se acerca al final de su “año de eficiencia”, como lo llamó el director ejecutivo Mark Zuckerberg.
Concretamente, en febrero, durante una conferencia sobre resultados, Zuckerberg dijo que quería que este fuera el "año de la eficiencia", aunque la empresa siguiera gastando miles de millones en construir su visión del metaverso. Con eso, dijo, la firma planeaba "aplanar" la "estructura" de la empresa y eliminar algunas capas de mandos intermedios para tomar decisiones más rápidamente. Hasta ahora, eso se ha traducido en una oleada de despidos, fusiones de equipos y redistribuciones.
Imagen | Foto de Glen Carrie en Unsplash
Ver 1 comentarios