YouTube advertirá a los usuarios por medio de etiquetas en la descripción de los vídeos
Los creadores de contenido deben marcar que su vídeo está generado por inteligencia artificial
Desde que OpenAI presentó al mundo herramientas tales como DALL-E 2 o ChatGPT, la IA generativa ha conquistado gran parte de los productos y servicios que conocemos hoy día. Y es que una buena parte de las plataformas que utilizamos en nuestro día a día han dado pie al desarrollo de nuevas herramientas basadas en IA generativa. Sus posibilidades son tales, que muchas otras también han considerado contramedidas, como es el caso de YouTube.
La plataforma ha comenzado a pedir a los creadores de contenido que adviertan del uso de IA generativa en sus vídeos para dejar claro que las imágenes que aparecen en estos han sido generadas por inteligencia artificial. YouTube ha lanzado un post en su blog oficial explicando los cambios.
Etiquetas para advertir del contenido con IA
Los creadores de contenido no siempre tendrán que advertir que han incluido material generado por IA en sus vídeos. YouTube dice que, si el contenido es “claramente irreal, animado, incluye efectos especiales o haya utilizado IA generativa como ayuda para la producción,” no será necesario que los creadores adviertan a los usuarios de ello.
Sin embargo, para el resto de casos, aquellos que suban vídeos a la plataforma sí deben advertir a los usuarios y a la plataforma de que han utilizado IA en sus vídeos. Estos casos incluyen los siguientes:
- Utilizar la semejanza de una persona realista: Alterar digitalmente el contenido para sustituir la cara de un individuo por la de otro o generar sintéticamente la voz de una persona para narrar un vídeo.
- Alterar secuencias de acontecimientos o lugares reales: Por ejemplo, hacer que parezca que un edificio real se ha incendiado o alterar un paisaje urbano real para que parezca distinto de la realidad.
- Generar escenas realistas: Mostrar una representación realista de grandes acontecimientos ficticios, como un tornado avanzando hacia una ciudad real.
Básicamente, si la intención del creador es engañar al usuario por medio de la inteligencia artificial con algo que no es real o nunca ha pasado, tendrán que advertir de ello antes de subir el vídeo en la plataforma. Para ello habrá una opción dedicada a esto en YouTube Studio.
La opción, denominada “contenido alterado” se encuentra dentro de la pestaña de “Detalles”. Si el vídeo se incluye en alguna de las situaciones descritas líneas arriba, tendrán que responder con un “Sí” a las preguntas en relación al uso de IA.
En caso de que el creador de contenido haya advertido de que ha usado inteligencia artificial en sus vídeos, aparecerá una etiqueta en el campo de la descripción del vídeo para advertir a los usuarios de que se trata de contenido generado con IA. La advertencia es todavía más seria si se trata de un vídeo discutiendo temas más sensibles como elecciones, conflictos bélicos, desastres naturales o sanitarios y más.
Estas etiquetas ya están siendo lanzadas en dispositivos móviles, y pronto les seguirá la web en ordenadores y la app para televisores. Dependiendo del contenido, es posible que YouTube añada la etiqueta aunque el creador de contenido no haya advertido de la presencia de contenido generado por IA.
En Genbeta | Nueve increíbles cosas que la gente hace con GPT-4 y tú puedes probar
Ver todos los comentarios en https://www.genbeta.com
VER 1 Comentario