OpenAI cambia totalmente su política y ahora ChatGPT podrá tener uso militar. Lo hace sin darle mucha visibilidad

El uso militar de grandes tecnologías suele presentarse como un foco de conflicto entre los trabajadores de las tech. Ya ha pasado en Microsoft, Google y Amazon

Filip Andrejevic 1ltunock3es Unsplash
1 comentario Facebook Twitter Flipboard E-mail

OpenAI ha retirado la prohibición del uso militar de ChatGPT y sus otras herramientas de inteligencia artificial. Pero lo ha hecho sin darle mucho bombo a la decisión. El cambio se produce cuando OpenAI comienza a trabajar con el Departamento de Defensa de Estados Unidos con herramientas de inteligencia artificial, incluidas herramientas de ciberseguridad de código abierto.

Hasta ahora, la página de políticas de OpenAI especificaba que la compañía no permitía el uso de sus modelos para "actividades que tengan un alto riesgo de daño físico como el desarrollo de armas o el ejército y la guerra".

Anna Makanju, vicepresidenta de asuntos globales de OpenAI, habló ayer en una entrevista para Bloomberg House en el Foro Económico Mundial, que se está celebrando en Davos, junto con el director ejecutivo Sam Altman, y ahí fue la encargada de revelar este gran cambio.

OpenAI ha eliminado la referencia específica al ejército, aunque su política aún establece que los usuarios no deben "usar nuestro servicio para dañarse a sí mismo o a otros", incluido "desarrollar o usar armas".

Un vistazo a…
'Sgroogled.com': cuando MICROSOFT lanzaba anuncios ANTI-GOOGLE

Hay casos que "se alinean con nuestra misión"

Antes esta información tan poco clara, CNBC contactó a la empresa y un portavoz ha dicho que el objetivo con respecto al cambio de política es brindar claridad y permitir casos de uso militar con los que la compañía está de acuerdo.

"Nuestra política no permite que nuestras herramientas se utilicen para dañar a personas, desarrollar armas, vigilar las comunicaciones, herir a otros o destruir propiedades", dijo el portavoz, que luego añadió que "existen casos de uso de seguridad nacional que se alinean con nuestra misión".

Open AI también fue noticia ayer cuando Sam Altman, su CEO, dijo que consideraba que ChatGPT era especialmente útil en tres industrias: salud, desarrollo (coding) y educación.

Antes esto no podemos olvidar que trabajadores de los gigantes tecnológicos involucrados con contratos militares han expresado su preocupación en diferentes ocasiones. Por ejemplo, las protestas de empleados de Google contra el polémico Proyecto Maven, un proyecto del Pentágono que buscaba usar la inteligencia artificial de Google para analizar imágenes de vigilancia de drones.

Las polémicas del uso militar

También tenemos el ejemplo de los empleados de Microsoft que protestaron por un contrato militar de 480 millones de dólares que proporcionaría a los soldados cascos de realidad aumentada.

Más de 1.500 trabajadores de Amazon y Google firmaron una carta en protesta por un contrato conjunto de 1.200 millones de dólares con el gobierno y el ejército israelíes.

Vía | CNBC

Imagen | Foto de Filip Andrejevic en Unsplash

En Genbeta | El ejército suizo prohíbe usar WhatsApp, Telegram y Signal por privacidad: esta es la alternativa que recomiendan

Comentarios cerrados
Inicio