La evolución de la inteligencia artificial y la automatización "amenazan" con usurpar puestos de trabajo, no solo aquellos monótonos y mecánicos, si no también los que requieren especialización: periodistas, analistas de datos, devs, publicidad, asesores, creadores de contenido... y también en el sector de la medicina y la psicología. ¿Puede la inteligencia artificial hacer terapia?
Uno de los proyectos más interesantes que relaciona la inteligencia artificial y la psicología lo ha llevado a cabo Koko, una empresa que proporciona herramientas de ayuda. Más concretamente, la misión de Koko es servir como primera línea de acción ante personas que puedan necesitar recursos de salud mental. ¿Cómo lo hace? Si buscas la palabra "thinspo" (un término que se usa para catalogar contenido que exalta los trastornos alimentarios) en plataformas como Pinterest, la empresa proporciona la tecnología para ofrecer al usuario un enlace a la página nacional de ayuda para trastornos alimentarios (de Estados Unidos).
Acabadas las presentaciones, vamos con el proyecto que llevó a cabo uno de sus fundadores llamado Rob Morris y cuyas conclusiones detalló en un hilo de Twitter. De la integración de ChatGPT con un bot de Discord nació el bot Koko, cuyo objetivo era que las personas que lo usaran se dieran consejo de forma anónima con la opción de que la IA les ayudara. Según Rob Morris, a principios de año ya habían atendido a 4000 personas.
We provided mental health support to about 4,000 people — using GPT-3. Here’s what happened 👇
— Rob Morris (@RobertRMorris) January 6, 2023
ChatGPT da mejores consejos que los humanos (random)
El funcionamiento era el siguiente: tú le cuentas el problema al bot Koko y este se lo reenvía a otra persona que ha mostrado interés por ayudar a otras personas. Así, tendrás de vuelta esos consejos anónimos y, si así lo deseas, la respuesta de Koko. Si optas por solicitar el asesoramiento del bot, su respuesta no se envía directamente de ChatGPT, si no que pasa por un proceso de aprobación humana.
Cuando recibías contestación aparecía un mensaje indicando que había sido coescrito con el robot de Koko y la habitual opción para valorar la respuesta. Sorprendentemente, aquellos mensajes redactados por la inteligencia artificial (curados por humanos) tenían una valoración mucho más alta que aquellos escritos por personas.
Sin embargo, pronto cesaron el experimento y retiraron esta opción con ChatGPT de su plataforma. ¿El motivo? Una vez la gente aprendía la forma de escribir de la inteligencia artificial, dejó de tener tirón. Parece ser que la empatía simulada se siente como algo extraño.
Como detalla Morris: "las máquinas no han vivido la experiencia humana, por eso cuando una inteligencia artificial argumenta con comentarios del tipo eso suena duro o te entiendo, suena falso". Por otro lado, tampoco saben el esfuerzo que supone sacar un hueco para escucharte.
Anticipándose a ese escenario de pedir ayuda a ChatGPT, Morris ya ha probado a pedirle al chat conversacional que le halague y que actuara como si sintiese preocupación. El problema es que tarde o temprano el chat reconoce que realmente no se preocupa por ti porque es un "simple" modelo de lenguaje. Cuando esto pasa, lo normal es sentirse un poco mal. Imagínate si además tienes ciertos trastornos con tu autoestima.
ChatGPT como servicio de salud mental "gratis"
No solo las empresas están experimentando con la salud mental y la inteligencia artificial, si bien en Reddit hay usuarios compartiendo consejos sobre cómo hacer que ChatGPT dé consejos terapéuticos.
El CEO de Every Dan Shipper no usa ChatGPT directamente como sustituto de un profesional de la psicología, pero sí que le saca jugo para sus terapias: graba sus sesiones, las transcribe con el software Whisper, le pide resúmenes a ChatGPT y después repasa estos resúmenes en una nueva sesión con su terapeuta, una forma de refrescar e ir al grano.
El psioterapeuta Finian Fallon recoge en su perfil de Twitter varias cuestiones interesantes sobre la terapia psicológica y la inteligencia artificial. De hecho plantea abiertamente que en un lustro los profesionales de su sector tendrán que preguntar a sus pacientes si han hecho terapia con IA. Una de las razones que esgrime para ello es que más allá de cuestiones éticas, hay personas que no pueden acceder o pagar terapia y buscarán cualquier cosa que pueda ayudarles.
Como consecuencia, la IA puede acercar la experiencia de la terapia a muchas más personas, siempre y cuando se haga desde la seguridad y la ética. Según su experiencia con la inteligencia artificial, sus habilidades son similares a las de un terapeuta nuevo por lo que, estando como está, después de una experiencia inicial podrías necesitar una interacción más sofisticada. Por el momento, la sensación es que hace refritos con los consejos y técnicas.
Aunque ChatGPT puede servir para indicarnos ciertos indicios de problemáticas en nuestra salud mental (listando los principales síntomas de la depresión, por ejemplo) y puede entretenernos, parece que por el momento todavía falta para que una escena como la de la película Her se produzca. Y es que lo que puede empezar como algo para pasar el rato, a la larga podría convertirse en un sucedáneo de hablar con alguien.
No obstante, de la historia de Koko se puede deducir algo: lo importante que es la confianza a la hora de llevar a cabo cualquier tratamiento de salud mental eficaz. De momento es poco probable que la IA pueda reemplazar por completo a los terapeutas humanos, ya que se genera un vínculo de confianza, empatía y comprensión, una santísima trinidad difícil de replicar en tecnología. Además los terapeutas humanos tienen herramientas para reconocer y responder a las señales no verbales, algo que todavía no puede hacer la IA.
Por otro lado, hay que tener en cuenta que ChatGPT (y otras herramientas de inteligencia artificial) usa nuestras interacciones para seguir entrenándose y que OpenAI comercializa con este producto. Y que un algoritmo conozca nuestra datos personales de salud esté al alcance de la mano de otras empresas que elaboran perfiles para publicidad personalizada no parece una buena idea.
Portada | Eva Rodríguez de Luis con MidJourney
Ver 3 comentarios