Hace unos días hablábamos del problema de Facebook con los vídeos violentos, de qué puede hacer para solucionarlo. En ese mismo artículo hablábamos de que la red social había prometido revisar los métodos para reportar los contenidos inapropiados, y por ahora parece que ya se están empezando a dar pasos adelante.
Tal y como el propio Mark Zuckerberg ha confirmado a través de su Facebook, el gigante social añadirá 3.000 revisores a lo largo de este año al equipo de 4.500 personas que ya trabajan en la identificación de contenidos inapropiados actualmente. Estas nuevas contrataciones deberían, según Zuckerberg, ayudar a "mejorar el proceso de revisión haciéndolo más rápidamente".
En palabras del propio Zuck:
Estos revisores también nos ayudarán a mejorar a eliminar cosas que no permitimos en Facebook como el discurso del odio o el abuso de menores. Y seguiremos trabajando con grupos de comunidades locales y fuerzas de seguridad que están en la mejor posición para ayudar a alguien si lo necesitan, ya sea porque se van a hacer daños a sí mismos, o porque están en peligro por causa de otra persona.
Por lo demás, el empresario ha vuelto a mencionar de nuevo el asunto de la revisión de herramientas para reportar contenido, insistiendo en que están trabajando en ellas y dando una pequeña declaración de intenciones:
Además de invertir en un mayor equipo humano, también vamos a crear herramientas mejores para mantener a nuestra comunidad segura. Vamos a hacer que sea más simple reportarnos un problema.
De nuevo, Zuckerberg ha vuelto a insistir en que van a facilitar las tareas de los revisores y la colaboración con cuerpos de seguridad. Como ejemplo de esto último pone el caso de una persona que habló de considerar el suicidio en una retransmisión de Facebook Live y que, gracias a que desde la empresa contactaron rápidamente con las autoridades policiales, consiguieron evitar que se hiciese daño. ¿Casualidad?
Sea como fuere, Zuck y los suyos siguen intentando crear un Facebook más seguro para todo el mundo. Para ello, necesitan un equipo mayor para revisar contenidos inapropiados, pero dado que los usuarios reportan millones de casos semanalmente, tarde o temprano algo pasará por el filtro.
Vía | Mark Zuckerberg
En Genbeta | Moderar lo peor de internet es malo para la salud: empleados de Microsoft desarrollan estrés postraumático
Ver 5 comentarios
5 comentarios
acerswap
Lo malo es que los revisores acaban con problemas de estres, ansiedad y traumas.
hermanschmidtworld
Leo esta noticia y no se por qué me hace acordar a esta canción: https://www.youtube.com/watch?v=4KAhzz3P7sc (dedicado a la gente de Facebook)
rogervidalguix
Necesitamos más becarios y policias para enriquecer el ego de Mark
ovannyperez
Contratación de empleado muy bien pero mi opinión es (instalar un programa tecnología dónde puedas eliminar o bloqueo de video fotos inadecuada) que las personas se le elimine Accesos publicar video fotos gentes publican video no educativo violentos deberían instalar un programa educativo dónde pueda ver desarrollo educativo como hacer un trabajo O empleo que las personas desarrollen sus habilidades odsevando mirando como uno puedes crear o inventar desarrollar algo creativo educativo la tecnología avanzada curso técnicos habilidades muchas gente publican cosas violentas personas entran fotos falza correo publican cualquier material hagamos de Facebook una eramienta para educación desarrollar métodos para nivel educativo cultural como desarrollar habilidades para un empleo como hacer la gente pueda vivir reír sea mas divertidos no dañino Facebook intalacion programa para las personas que quieren hacer daño a la sociedad de eliminar bloquear estos Accesos de publicar video fotos mensajes inadecuados