Tras años de debate en el seno de la Unión Europea y en Internet, por fin ha llegado el día. El Boletín Oficial del Estado (BOE) recoge la transposición de la directiva de Copyright, en un texto ahora conocido como 'Ley Iceta', al ser Miquel Iceta ministro de cultura. De esta forma, ya sabemos cómo se aplicará el polémico artículo 17 que regulaba la responsabilidad de las plataformas sobre los contenidos alojados, y que les obligaba a establecer filtros algorítmicos sobre ellos para no recibir cuantiosas multas.
España ha realizado esta transposición tarde, y según los expertos, mal. En lugar de haberse producido un debate parlamentario, el Gobierno de Pedro Sánchez ha aprobado el texto como Real Decreto Ley, sin haber tenido en cuenta la opinión de las plataformas y de activistas de libertad de expresión y de la propiedad intelectual. Veamos cómo se aplica todo en la legislación nacional (sabiendo que al ser Decreto Ley, el Congreso aún debe convalidarlo en un plazo de 30 días).
Así es nuestro artículo 17, el artículo 73
El artículo 73 del Real Decreto-Ley 24/2021, de 2 de noviembre es el que se corresponde con el 17 de la directiva de copyright, y es donde está, por tanto, la polémica.
El texto considera que los prestadores de servicios realizan comunicación al público cuando ofrezcan al público contenidos protegidos por derechos de propiedad intelectual subidos por los usuarios de las plataformas. Para que esa comunicación publica pueda darse, las plataformas de vídeo y contenidos "deberán obtener previamente la autorización de los titulares de los derechos referidos a los actos de comunicación pública". Y es aquí donde empieza el problema.
Antes YouTube y compañía eran intermediarios, pero ahora son responsables legales de lo que alojan, y se trata de uno de los cambios de legislación más importantes que ha habido sobre Internet, por cómo puede afectar de ahora en adelante. En este sentido, dice el texto en el punto 3 del artículo 73 que las plataformas "no se beneficiarán de la limitación de responsabilidad prevista en el artículo 16 de la Ley 34/2002, de 11 de julio".
Y dado que serán responsables de toda la ingente cantidad de contenido subido, las plataformas tendrán que elaborar un plan para controlar que todo lo que subido a ellas no infringe derechos de autor. ¿Cómo hacerlo? En el texto no se especifica, pero según vienen avisando todos los expertos, solo hay una forma: filtros algorítmicos que realicen una censura previa sobre los contenidos.
En el punto 4, uno de los más importantes del artículo, se explica que son las plataformas y no los usuarios los responsables legales de alojar contenidos protegidos, salvo que demuestren haber hecho lo siguiente:
a) Han hecho sus mayores esfuerzos por obtener una autorización, y
b) Han hecho, de acuerdo con estrictas normas sectoriales de diligencia profesional, sus mayores esfuerzos por garantizar la indisponibilidad de las obras y prestaciones respecto de las cuales los titulares de derechos les hayan facilitado la información pertinente y necesaria; y, en cualquier caso
c) Han actuado de modo expeditivo al recibir una notificación suficientemente motivada de los titulares de derechos, para inhabilitar el acceso a las obras u otras prestaciones notificadas o para retirarlas de sus sitios web, y han hecho sus mayores esfuerzos por evitar que se carguen en el futuro de conformidad con la letra b).
En relación a los contenidos en directo, los prestadores de servicios para compartir contenidos en línea deben inhabilitar el acceso a los mismos o retirarlos de su sitio web durante la retransmisión del evento en directo en cuestión.
Sin perjuicio de lo anterior, los titulares de derechos podrán ejercer las acciones legales dirigidas a restablecer el daño patrimonial, tales como la acción de enriquecimiento injusto, en el caso de que, aunque los proveedores de servicios hayan hecho sus mayores esfuerzos para eliminar el contenido no autorizado, éste continúe siendo explotado por ellos, causando un perjuicio significativo a los titulares de derechos.
Es en el punto b) donde encaja la aparición de esos filtros algorítmicos casi por obligación, como parte de "sus mayores esfuerzos por garantizar la indisponibilidad de las obras y prestaciones respecto de las cuales los titulares de derechos les hayan facilitado la información pertinente y necesaria". Lo mismo ocurre en el c) con las obligadas actuaciones de "modo expeditivo" al recibir notificaciones. La plataformas tienen que ser implacables, lo que equivale a algo que solamente algoritmos de filtrado pueden hacer. Esos esfuerzos también deben implicar que los contenidos se suban de nuevo en el futuro, como también indica el apartado c).
1/ ATENCIÓN. 🔴Nuestro primer análisis de la transposición del #article17 de la Directiva #copyright que conlleva la censura previa y masiva en el #DecretazoCopyright #Demud #censorshipmachine #uploadfilters https://t.co/HVQuiSFt38
— Xnet (@X_net_) November 3, 2021
ABRIMOS HILO👇
Desde el colectivo de Xnet se han posicionado sobre la transposición de lo que califican como #DecretazoCopyright. Según Simona Levi, el artículo 73 "tendrá dos efectos devastadores para el futuro de internet":
Obligar a los proveedores a poner filtros automatizados que censuren los contenidos a la brocha gorda, socavando la libertad de expresión y la cultura digital como memes y similares.
Las start-ups se verán en graves dificultades por verse obligadas a operar con una celeridad indefinida que les deja en una situación de inseguridad jurídica".
Como punto negativo, Levi resalta el mencionado punto 4, donde se establece la responsabilidad "los prestadores de servicios para compartir contenidos en línea serán responsables de los actos no autorizados de comunicación al público, incluida la puesta a disposición de obras y otras prestaciones protegidas por derechos de propiedad intelectual".
Según Xnet, la propuesta que hicieron al Ministerio de Cultura contenía propuestas como "no imponer las tecnologías de filtrado a los prestadores de servicio", así como "limitar las expectativas relativas a los “los mayores esfuerzos” realizados por parte de los prestadores de servicios (artículo 17.4), definiendo claramente en qué consisten estos esfuerzos", entre otras.
En un principio, la directiva solamente iba a aplicarse a grandes plataformas, pero todo cambió al negociarse en Europa el texto para que pudiera salir adelante. El hecho de que Xnet mencione a startups tiene que ver con los cambios propuestos antes de su aprobación en el Parlamento Europeo, y que el Real Decreto recoge. Ahora, en el punto 7, se exige que plataformas con menos de 3 años y menos de 10 millones de euros en ingresos, es decir, cualquier empresa nueva, cumpla con el requisito de hacer "sus mayores esfuerzos para obtener una autorización" de derechos de autor y "actuar de forma expeditiva para eliminar los contenidos".
Resulta imposible que una plataforma pequeña pueda actuar como YouTube, y para ello, en el punto 6, se menciona de se aplicará el principio de proporcionalidad considerando la magnitud del servicio y la audiencia. Al pasar de los tres años, sin embargo, tendrían muchas más obligaciones, las de los apartados b) y c). Ocurrirá lo mismo al tener más de cinco millones de usuarios únicos.
El vídeo en directo se lleva la peor parte
Lo más inesperado del Real Decreto tiene que ver con el vídeo en directo. Como ya hemos recogido antes en el texto, el punto 4 apartado c) establece que, en cuanto a las transmisiones en directo que contengan contenidos con derechos de autor, "los prestadores de servicios para compartir contenidos en línea deben inhabilitar el acceso a los mismos o retirarlos de su sitio web durante la retransmisión del evento en directo en cuestión".
El decreto Iceta es un ataque a la esencia de internet. Los streamers que se preparen, que tienen un párrafo propio. Veremos qué pasa con algunos que ahora se ganan la vida en Twitch y que en su día nos explicaban a los abogados desde YouTube lo inofensiva que era la Directiva.
— David Bravo (@dbravo) November 3, 2021
Es decir, que plataformas como Twitch, YouTube o Instagram son las responsables de los directos en cuanto a los contenidos mostrados por los canales en directo, y deben monitorizar activamente lo que se muestra para, si el vídeo incluye material protegido por copyright, inmediatamente eliminar el acceso al contenido, lo que en la práctica va a significar bloquear los directos, pues de momento no hay una forma de que un algoritmo censure solamente una parte de la imagen o unos minutos de vídeo. De hecho, al poder asumir incluso responsabilidades penales, probablemente tengan que filtrar o censurar previamente los directos, quizás antes de que den comienzo.
En la directiva no se recogía esto del contenido en directo, por lo que el Ministerio de Miquel Iceta ha ido más allá de lo que era estrictamente necesario. Según ha contado el abogado especializado de Bufet Almeida Carlos Sánchez Almeida a Público, "para eventos en directo prevé la supresión inmediata y, si no, es responsabilidad del prestador, y eso es claramente censura inmediata".
Almeida también ha mencionado al medio que las formas no han sido las correctas: "Todo esto lo hacen, además, sin modificar la Ley de Propiedad Intelectual, que sólo cambia en ello que respecta a Google y las empresas periodísticas por los contenidos de prensa; eso ya es una barbaridad, el hecho de que se imponga esta medida nueva directamente mediante Real Decreto".
Ver 12 comentarios