OpenAI explora nuevas fronteras en la generación de contenido no apto para todos los públicos, pero establece límites claros ante la preocupación pública
En estos últimos días, OpenAI se ha situado en el centro de una notable polémica considerable tras revelar que ha estado valorando la posibilidad de permitir la generación de "contenido para adultos" a través de sus herramientas de inteligencia artificial como ChatGPT y DALL-E.
Todo comenzó con la publicación, hace unos días, del documento "Model Spec", en el que la empresa liderada por Sam Altman esclarece algunas dudas sobre cómo se entrena a los modelos de OpenAI para responder a diversos 'prompts' de los usuarios.
En el mismo se incluye un apartado que aborda el 'contenido NSFW' (de 'Not Sure for Work' o 'no apto para el lugar de trabajo'), mostrando el siguiente aviso:
"Creemos que los desarrolladores y usuarios deberían tener la flexibilidad de utilizar nuestros servicios como mejor les parezca, siempre y cuando cumplan con nuestras Políticas de uso. Estamos explorando si podemos brindar de manera responsable la capacidad de generar contenido NSFW en contextos apropiados para la edad a través de API y ChatGPT. Esperamos comprender mejor las expectativas de los usuarios y de la sociedad sobre el comportamiento del modelo en esta área".
La polémica ha girado, precisamente, en torno a los límites de cuán poco aptos para el lugar de trabajo podrían ser los contenidos generados por los principales productos de OpenAI: Joanne Jang, empleada de la compañía, mencionó en una entrevista en la radio pública estadounidense la importancia de iniciar este debate sobre si siempre debería prohibirse la generación de texto erótico e imágenes de desnudos en sus productos...
Marcando los límites
...pero también dejó claro que, aunque está más que abierta a explorar casos en los que la sexualidad o la desnudez resulten pertinentes, todo se manejaría en un contexto de protección de los menores en el que la generación de pornografía explícita (incluyendo deepfakes con rostros de personas reales) mediante IA sigue siendo un límite que no están dispuestos a cruzar:
"Existen situaciones creativas en las que el contenido relacionado con la sexualidad o la desnudez es importante para nuestros usuarios. [...] Queremos asegurarnos de que las personas tengan el máximo control en la medida en que no viole la ley ni los derechos de otras personas, pero permitir los deepfakes no está abierto a debate, y punto. Esto no significa que ahora estemos intentando crear pornografía con IA".
El problema es que la definición exacta de qué constituye 'pornografía' depende de la sensibilidad de cada uno (y de la jurisdicción): "Estas son precisamente las conversaciones que queremos tener".
The Guardian se ha hecho eco del posicionamiento crítico de personalidades como la directora de cine Beeban Kidron o la académica Clare McGlynn, que han argumentado que poner este cambio encima de la mesa socava la autoproclamada misión de OpenAI de desarrollar una inteligencia artificial segura y beneficiosa para la humanidad.
Imagen | Marcos Merino mediante IA
Ver todos los comentarios en https://www.genbeta.com
VER 2 Comentarios