En los años que lleva activo AirBnB, la compañía ha experimentado toda clase de problemas con huéspedes y anfitriones que han violado las normas de la plataforma (e incluso las leyes de sus países): fiestas ilegales, estafas, violaciones, tiroteos... de hecho, ahora mismo se halla inmersa en una costosa demanda interpuesta después de que una mansión teóricamente reservada por una familia de 4 miembros terminara albergando una fiesta con 500 participantes, que destrozó la propiedad.
Esto explica por qué detectar preventivamente la fiabilidad de sus usuarios se ha convertido en una prioridad para ellos: al fin y al cabo, su negocio se basa en que ambas partes confíen en el papel de intermediación de la app.
Análisis de riesgos en base a información online
Por eso, AirBnB lleva un tiempo desarrollando un 'analizador de riesgos' capaz de generar un perfil de la personalidad de sus huéspedes y poder así vincularlos a actitudes problemáticas como el consumo de drogas o alcohol, discursos de odio o trastornos mentales.
Para ello, recurre a la inteligencia artificial y a datos recolectados de fuentes disponibles en la Red, principalmente de redes sociales (aunque también a listas de terroristas y a bases de datos de antecedentes judiciales allí donde eso es legal). Así, si el usuario desea ser considerado un huésped fiable es importante, en primer lugar, que la información que ofrecemos en redes coincida con la previamente facilitada a AirBnB.
La herramienta se basa en la labor llevada a cabo previamente por Trooly, una startup que AirBnB adquirió en 2017. La compañía se ha negado en varias ocasiones a comentar qué papel exacto tiene el software de Trooly en su plataforma, aunque una patente solicitada por ésta el año pasado ofrece algunas pistas, como que es usada para buscar evidencias de rasgos como el "narcisismo, el maquiavelismo y la psicopatía".
AirBnB resta importancia a la patente, afirmando que cuenta con varias, "y eso no significa que necesariamente terminemos implementando todo o parte de lo que hay en ellas". Sin embargo, la web de AirBnB sí reconoce el uso de la inteligencia artificial para calificar a los potenciales huéspedes:
"Todas las reservas de Airbnb pasan por un proceso de detección de riesgos antes de quedar confirmadas. Utilizamos análisis predictivos y aprendizajes automáticos para evaluar al momento cientos de señales que nos ayudan a detectar e investigar cualquier actividad sospechosa antes de que se produzca".
Aunque, como decíamos al principio, es comprensible que AirBnB ponga todos los medios para evitarse problemas mediáticos y legales, causa preocupación que se deje en manos de algoritmos la elaboración de juicios psicológicos. De ahí la importancia de que AirBnB explique exactamente cómo usa su software de valoración de huéspedes.
Causa preocupación, en primer lugar, porque si la selección de datos de entrenamiento de la IA no ha sido adecuada, se corre el riesgo de que caiga en juicios, como mínimo, tan sesgados como los humanos, lo que podría dificultar injustamente el acceso de determinados tipos de usuario a los servicios de AirBnB.
En segundo lugar, porque podría generar la tentación de que la IA ejerciera como filtro de usuarios, sin que mediara supervisión humana, por mero ánimo de ahorro. El profesor Alan Woodward, experto en ciberseguridad de la Universidad de Surrey, afirma que "nos estamos apresurando a confiar en el machine learning para tomar decisiones sobre las que normalmente los humanos recurrir a su propio juicio".
Imagen | Valeriesophie