Ayer publicamos sobre una ley recientemente aprobada en Australia, gracias a la unión de la oposición laborista y la coalición liberal-nacional. Con dicha ley afirman que buscan luchar contra los contenidos violentos y extremistas en las redes sociales.
Estas medidas llegan después de la matanza terrorista de Christchurch (Nueva Zelanda). Después de esta terrible masacre, vimos como en el vídeo del atentado se propagó sin control por las redes sociales.
Multas a los que no cumplan este plazo de tiempo
Al igual que sucede en Australia, un proyecto de reglamento europeo busca (entre otras cosas) implantar una serie de medidas con las que se obligaría a eliminar contenidos terroristas en 60 minutos.
Se votará el próximo lunes día ocho y, si finalmente se aprueba, plantearía muchas dudas acerca de cómo pueden las plataformas asegurar que serán capaces de eliminar este tipo de contenido en menos de una hora.
Sergio Carrasco, abogado especialista en Derecho de las Nuevas Tecnologías y en Derecho Público, nos recuerda que “esta norma va dirigida a los prestadores de servicios de hospedaje, ya que son quienes tienen el control sobre los datos que están hospedando”.
Ya hemos visto como plataformas tan grandes e importantes como YouTube tienen problemas a la hora de detectar y eliminar contenido dañino, así que esta ley sería todo un mazazo para las plataformas más "humildes".
Eso significaría que las webs tendrían que tener un departamento siempre operativo (24/7), para así poder responder rápidamente a este tipo de peticiones. Otra opción es que creen una serie de filtros con los que sean capaces de eliminar automáticamente este contenido.
Sergio Carrasco cree que “será una ley difícil de cumplir en determinados casos. No hablamos de un mejor esfuerzo o una referencia de actuar de forma expedita, sino que se fija un plazo máximo” para actuar y eliminar este contenido.
No parece que exista, a priori, una solución fácil a este problema. Si se llegase a aprobar, muchas webs tendrían que cerrar la opción de que otros usuarios puedan subir contenido y migrar este apartado a servicios de terceros.
Si no lo cumplen, se enfrentarán a multas que podrían ascender al 4% de su beneficio total anual. Por otro lado, las plataformas que nunca hayan recibido una orden para eliminar contenido terrorista tendrán 12 horas extra para hacerlo (algo que en determinadas ocasiones, o dependiendo del tamaño de la plataforma, puede llegar a ser poco tiempo).
Al preguntarle sobre la censura, Sergio cree que esta norma “tiene un objetivo plenamente legítimo, pero el problema puede venir en la práctica con su aplicación”:
“Hay que instrumentar mecanismos que permitan la apelación cuando no se ha ponderado adecuadamente la libertad de expresión antes de requerir la retirada de dicho contenido. Los plazos tan cortos, cuando existen derechos tan complejos como la libertad de expresión, pueden llegar a provocar efectos indeseados”.
Ver todos los comentarios en https://www.genbeta.com
VER 12 Comentarios