Grandes compañías de internet como Facebook, Twitter y Google llevan tiempo incrementando notablemente sus recursos para acabar con el contenido violento y extremista en sus plataformas respondiendo a las presiones políticas recibidas por algunos de los gobiernos europeos más golpeados por el terrorismo.
Gracias a estas medidas, por ejemplo, YouTube es capaz de eliminar el 70 % del contenido violento y extremista dentro de las ocho horas posteriores a la carga del vídeo y casi la mitad en dos horas. Grandes esfuerzos centrados en una tipología de material que, sin embargo, deben incrementarse todavía más según la Unión Europea.
Aún no hemos llegado. Llevamos dos años en el camino de este viaje: para llegar a nuestro destino final necesitamos ahora acelerar nuestro trabajo.
Son palabras de Julian King, comisario para la Unión de la Seguridad, pronunciadas durante la clausura del EU Internet Forum que reúne a miembros de la Comisión Europea, Estados miembros, fuerzas del orden comunitarias, empresas tecnológicas y sociedad civil.
Proposición de legislación si los progresos no son los que se esperan
A pesar de que Europa se muestra favorable a una autorregulación de las plataformas, que ellas mismas sean capaces de actuar independientemente contra estos contenidos, desea evitar un mosaico de legislaciones nacionales sobre este tema y propondrá una legislación si los progresos de las compañías en materia de eliminación no les satisfacen.
Reuters ha tenido acceso a un informe presentado por los miembros del EU Internet Forum sobre los progresos realizados por estas empresas y Europol en la detección y eliminación de material extremista en el que se anima a las compañías a eliminar "contenidos terroristas nuevos e históricos". Además, alientan al desarrollo de soluciones "para identificar y eliminar contenidos terroristas en un plazo de 1 a 2 horas después de la carga, en la medida en que sea técnicamente viable, sin comprometer los derechos humanos y las libertades fundamentales". Una petición en línea con la realizada por Reino Unido en septiembre.
Estas demandas incluyen el empleo de tecnologías de detección automática como las que emplea YouTube para conseguir resultados como el que comentábamos al inicio de esta información. De hecho, según Google, el 98% de los vídeos que eliminan por extremismo violento están marcados por sus algoritmos de aprendizaje automático.
Monika Bickert, representante de Facebook, informó al foro sobre el progreso en el borrado de contenido extremista de su plataforma y afirmó que estaban eliminando el 99 % del contenido relacionado con Estado Islámico y Al Qaeda antes de que fuese reportado por los usuarios gracias precisamente a estos sistemas de detección automática. Para Dimitris Avramopoulos, Comisario europeo de Migración, Asuntos Internos y Ciudadanía, "hay mucho margen de mejora".
En Xataka | Así es como YouTube luchará contra los preocupantes abusos en su plataforma
Ver 3 comentarios
3 comentarios
260397
¿Qué es contenido extremista?
¿Vídeos de ISIS propagandísticos?
¿Vídeos de ISIS siendo masacrados por la coalición?
¿Vídeos de civiles siendo asesinados por ISIS?
¿Vídeos de cartels de la droga mexicanos matando personas?
Volvemos a los mismo: ¿por qué un video de ISIS matando es ilegal y uno de los cárteles de la droga matando o un accidente de coche grave es legal? Todo gore es lo mismo, a los que les gusta el gore les gusta como algo exitante y sádico y no como información de lo que pasa. Les da igual que sea de ISIS o no, mientras alguien sufra o muera y haya sangre, les encanta a estas personas. ¿Por qué esto es legal?
No seamos gilipollas y pensemos por nosotros mismos. No tiene sentido que un chico de 17 años haga un video pajeandose y se lo envie a su novi@ de 18 años y sea porno infantil, ilegal, pero despues puedas ver a niños siendo asesinados y sea legal tener y difundir esos vídeos como una actividad lúdica.
Con ello sólo quiero que se reflexione. Porque yo creo que estas tecnológicas ya hacen lo que pueden y poco a poco hacen más. Imagínate que yo ahora de la nada abro un negocio de nube privada. ¿Cómo voy a revisar todo lo que se sube o a retirar ese contenido en menos de 2 horas? Y más si por ejemplo mi servicio para competir tiene que ser barato y por eso no contratar a gente. Si ahora me obligan a revisarlo todo o a tener ese tiempo de respuesta, tendré que contratar a más personal, subir precios, perder competitividad y con ello simplemente puede que el negocio tenga que cerrar.
juanmcm
Todo esto está muy bien pero hay una serie de problemas comunes.
1.- Tenemos que entender bien que es denunciable, susceptible de ser eliminado y donde hay un mensaje inofensivo pero expresando una opinión, que no siempre es sencillo de delimitar lo ofensivo con lo delictivo.
Y 2.- pero no menos importante, en muchas ocasiones vemos en Twitter o en otras redes similares contenido delictivo (de casi cualquier índole) pero últimamente se ha perfeccionado el mensaje de modo que a menudo es en clave (idioma creado ex profeso, lenguaje rebuscado, etc) o con imágenes que a priori parece ser algo inofensivo pero realmente se trata de un mensaje encriptado o algo más efectivo, que sean cuentas protegidas, que solo unos pocos pueden ver.
Ello sin mencionar que a menudo los terroristas/yihadistas/mafiosos se comunican por medio de los clásicos SMS, por sistemas analógicos como notas de papel, mensajes en los clasificados en los periódicos, etc.
Lo dicho, que para llevar esto a cabo hacen falta muchas horas de recopilación de información, saber que o quienes hablan, de qué o de que modo hablan, conocer su jerga, en que plataforma lo hacen y mucha información que a día de hoy no se tiene y no sé si es legal tener.
loboanonimo
Jjajajajaa... si claro....
Y cuando dormimos los webmasters? Nunca no?
Eso de borrar el contenido en 1 hr esta muy bien para un Facebook o similar, pero ¿que pasa si se sube el contenido a una pagina un poco más pequeña? ¿O a un torrent? ¿O a un filelocker? ¿O a Tor?
¿Tienen que estar los webmasters todo el dia verificando uno por uno todo el contenido? Y luego si encuentran algo, ¿decidir ellos mismos en 60 minutos si el contenido es extremista o libertad de expresión?
¿Y que pasa si se sube el contenido a las 4 de la mañana? Tenemos que dejar que robots decidan de si es extremista o no, ¿no? ¿O tenemos que contratar gente para que nos trabajen las 24/7?
Anda ya..... Es muy bonito decir que el contenido extremista hay que bloquearlo lo antes posible, pero mientras que no esté definido que coño es ese "contenido extremista", eso de bloquearlo en 60 minutos no va a funcionar.