OpenAI ha retirado la prohibición del uso militar de ChatGPT y sus otras herramientas de inteligencia artificial. Pero lo ha hecho sin darle mucho bombo a la decisión. El cambio se produce cuando OpenAI comienza a trabajar con el Departamento de Defensa de Estados Unidos con herramientas de inteligencia artificial, incluidas herramientas de ciberseguridad de código abierto.
Hasta ahora, la página de políticas de OpenAI especificaba que la compañía no permitía el uso de sus modelos para "actividades que tengan un alto riesgo de daño físico como el desarrollo de armas o el ejército y la guerra".
Anna Makanju, vicepresidenta de asuntos globales de OpenAI, habló ayer en una entrevista para Bloomberg House en el Foro Económico Mundial, que se está celebrando en Davos, junto con el director ejecutivo Sam Altman, y ahí fue la encargada de revelar este gran cambio.
OpenAI ha eliminado la referencia específica al ejército, aunque su política aún establece que los usuarios no deben "usar nuestro servicio para dañarse a sí mismo o a otros", incluido "desarrollar o usar armas".
Hay casos que "se alinean con nuestra misión"
Antes esta información tan poco clara, CNBC contactó a la empresa y un portavoz ha dicho que el objetivo con respecto al cambio de política es brindar claridad y permitir casos de uso militar con los que la compañía está de acuerdo.
"Nuestra política no permite que nuestras herramientas se utilicen para dañar a personas, desarrollar armas, vigilar las comunicaciones, herir a otros o destruir propiedades", dijo el portavoz, que luego añadió que "existen casos de uso de seguridad nacional que se alinean con nuestra misión".
Open AI también fue noticia ayer cuando Sam Altman, su CEO, dijo que consideraba que ChatGPT era especialmente útil en tres industrias: salud, desarrollo (coding) y educación.
Antes esto no podemos olvidar que trabajadores de los gigantes tecnológicos involucrados con contratos militares han expresado su preocupación en diferentes ocasiones. Por ejemplo, las protestas de empleados de Google contra el polémico Proyecto Maven, un proyecto del Pentágono que buscaba usar la inteligencia artificial de Google para analizar imágenes de vigilancia de drones.
Las polémicas del uso militar
También tenemos el ejemplo de los empleados de Microsoft que protestaron por un contrato militar de 480 millones de dólares que proporcionaría a los soldados cascos de realidad aumentada.
Más de 1.500 trabajadores de Amazon y Google firmaron una carta en protesta por un contrato conjunto de 1.200 millones de dólares con el gobierno y el ejército israelíes.
Vía | CNBC
Imagen | Foto de Filip Andrejevic en Unsplash
En Genbeta | El ejército suizo prohíbe usar WhatsApp, Telegram y Signal por privacidad: esta es la alternativa que recomiendan
Ver 1 comentarios