Inteligência artificial: Terapia com chatbots seria uma opção?
Crédito, Getty Images
- Author, Eleanor Lawrie
- Role, Repórter de questões sociais, BBC News
“Sempre que tinha dificuldades, se aquele dia prometesse ser muito ruim, eu conversava com um daqueles robôs. Era como [ter] alguém torcendo por você, alguém que oferecesse boas vibrações para o dia.
Eu tinha esta voz externa de incentivo, dizendo ‘certo, o que vamos fazer [hoje]?’ Essencialmente, como um amigo imaginário.”
Na época, Kelly estava na lista de espera de psicoterapia tradicional no NHS, o serviço público de saúde do Reino Unido. Ela precisava discutir questões relacionadas à sua ansiedade, baixa autoestima e um rompimento amoroso.
Ela conta que interagir com os chatbots do portal character.ai a ajudaram a atravessar um período muito sombrio. Eles ofereciam estratégias de sobrevivência e ficavam disponíveis 24 horas por dia.
“Não venho de uma família abertamente emocional”, ela conta. “Se você tivesse um problema, você simplesmente convivia com aquilo. O fato de não ser uma pessoa real facilita muito.”
Pessoas de todo o mundo compartilham seus pensamentos e experiências particulares com chatbots de IA — mesmo que suas respostas sejam geralmente reconhecidas como inferiores ao aconselhamento profissional humano.
O próprio character.ai alerta seus usuários que “este é um chatbot de IA e não uma pessoa real. Considere tudo o que ele diz como ficção. Não tome o que ele diz como fato ou conselho.”
Mas, em exemplos extremos, os chatbots vêm sendo acusados de oferecer conselhos prejudiciais.
Existe em andamento um processo legal contra o character.ai movido por uma mãe, cujo filho de 14 anos tirou a própria vida depois de supostamente ficar obcecado por um dos personagens de IA oferecidos pelo portal.
As transcrições das suas conversas incluídas no processo mostram que ele discutiu com o chatbot a possibilidade de pôr fim à própria vida.
Em uma última conversa, ele disse ao chatbot que estava “voltando para casa” e o personagem de IA supostamente o incentivou a fazer isso “o mais rápido possível”.
O portal nega as acusações do caso.
Em 2023, a Associação Nacional de Distúrbios Alimentares dos Estados Unidos (Neda, na sigla em inglês) substituiu sua linha de apoio ao vivo por um chatbot. Mas precisou suspender o serviço, frente às reclamações de que o robô recomendava restrições de calorias.
Crédito, Getty Images
Somente em abril de 2024, foram realizados cerca de 426 mil encaminhamentos de saúde mental na Inglaterra. Este número representa um aumento de 40% nos últimos cinco anos.
Estima-se que um milhão de pessoas estejam no aguardo de acesso aos serviços de saúde mental no país. E os custos da terapia particular podem ser proibitivos.
Os valores apresentam grandes variações, mas a Associação Britânica de Aconselhamento e Psicoterapia informa que, em média, as pessoas gastam 40 a 50 libras (cerca de R$ 304 a R$ 379) por hora.
Paralelamente, a IA revolucionou de muitas formas a assistência médica. Suas inovações incluem a assistência para a seleção, diagnóstico e triagem de pacientes.
Existe um espectro imenso de chatbots e cerca de 30 serviços locais do NHS passaram a utilizar um serviço específico, conhecido como Wysa.
Os especialistas expressam preocupação com os chatbots, devido aos seus possíveis vieses e limitações, além da falta de proteção e da segurança em relação às informações dos usuários. Mas alguns acreditam que, na falta de apoio humano especializado, os chatbots, ainda assim, podem ajudar.
Com as listas de espera dos serviços públicos de saúde mental atingindo recordes de alta, será que os chatbots seriam uma possível solução?
‘Terapeuta inexperiente’
O portal character.ai e outros bots, como o ChatGPT, são baseados em grandes modelos de linguagem de inteligência artificial.
Eles são treinados para prever a palavra seguinte em uma sequência, com imensas quantidades de dados, como websites, artigos, livros ou postagens em blogs. Com isso, eles preveem e geram textos e interações que parecem criações humanas.
A forma de desenvolvimento dos chatbots de saúde mental varia, mas eles podem ser treinados em práticas como a terapia comportamental cognitiva. Com isso, eles ajudam os usuários a explorar como eles podem reformular seus pensamentos e ações.
Os chatbots também podem se adaptar às preferências e ao feedback do usuário final.
O professor de sistemas humanos Hamed Haddadi, do Imperial College de Londres, compara os chatbots com “terapeutas inexperientes”.
Ele destaca que seres humanos com décadas de experiência serão capazes de interagir e “ler” seus pacientes com base em muitas coisas, enquanto os bots são forçados a lidar apenas com o texto.
“Eles [os terapeutas] observam diversas outras indicações por meio das suas roupas, do seu comportamento, das suas ações, da sua aparência, da sua linguagem corporal e de tudo o mais”, explica o professor. “E é muito difícil embutir estas questões nos chatbots.”
Outro possível problema, segundo Haddadi, é que os chatbots podem ser treinados para manter você envolvido e oferecer apoio, “tanto que, se você disser algo prejudicial, eles provavelmente irão cooperar com você”.
Esta postura costuma ser chamada de questão “sim, senhor”, pois eles concordam muito, com frequência.
E, como ocorre com outras formas de IA, pode haver vieses inerentes ao modelo, pois eles refletem os preconceitos existentes nos dados usados para seu treinamento.
Haddadi destaca que os terapeutas e psicólogos não costumam manter transcrições das suas interações com pacientes. Por isso, os chatbots não contam com muitas sessões “reais” para seu treinamento.
O professor afirma que, por este motivo, eles provavelmente não recebem dados suficientes. E o material a que eles têm acesso pode incluir vieses embutidos, que são muito circunstanciais.
“Dependendo de onde você conseguir seus dados de treinamento, sua situação irá mudar completamente”, explica Haddadi.
“Mesmo na restrita área geográfica de Londres, um psiquiatra acostumado a lidar com pacientes [no distrito] de Chelsea pode realmente ter dificuldade para abrir um novo consultório em Peckham para lidar com as mesmas questões, pois ele ou ela simplesmente não conta com dados de treinamento suficientes daqueles usuários.”
Crédito, Reuters
A filósofa Paula Boddington escreveu um livro didático sobre a ética e a IA. Ela concorda que as tendências embutidas representam um problema.
“Uma grande questão seriam os eventuais vieses ou suposições subjacentes embutidas no modelo de terapia”, explica ela.
“Os vieses incluem modelos gerais do que constitui a saúde mental e o bom funcionamento no dia a dia, como independência, autonomia e relacionamentos com os demais.”
Outra questão é a falta de contexto cultural. Boddington relembra, por exemplo, que ela morava na Austrália quando morreu Diana, Princesa de Gales (1961-1997). As pessoas não entendiam por que ela ficou perturbada.
“Este tipo de coisa realmente me faz pensar na conexão humana que, muitas vezes, é necessária na psiquiatria”, ela conta.
“Às vezes, é simplesmente necessário estar ali com alguém, mas é claro que isso só pode ser feito por alguém que também seja um ser humano encarnado, vivo e respirando.”
Depois de algum tempo, Kelly começou a perceber que o chatbot fornecia respostas insatisfatórias.
“Às vezes, você fica um pouco frustrado”, ela conta. “Se eles não sabem como lidar com algo, eles meio que dizem a mesma sentença e você percebe que, na verdade, aquilo não vai a lugar nenhum.”
Às vezes, “era como atingir uma parede de tijolos”, segundo Kelly.
“Eram assuntos de relacionamento que eu provavelmente já havia discutido, mas acho que sem usar as expressões corretas […] e ele simplesmente não queria se aprofundar naquilo.”
Um porta-voz do portal character.ai declarou que, “para qualquer personagem criado pelos usuários com as palavras ‘psicólogo’, ‘terapeuta’, ‘médico’ ou termos similares nos seus nomes, temos mensagens que deixam claro que os usuários não devem contar com estes personagens para nenhum tipo de aconselhamento profissional”.
‘Ele era tão empático’
Para alguns usuários em depressão, os chatbots são ferramentas valiosas.
Nicholas tem autismo, ansiedade, transtorno obsessivo-compulsivo e conta que sempre sofreu de depressão. Ele deixou de receber apoio personalizado quando atingiu a idade adulta.
“Quando você completa 18 anos, é como se o apoio praticamente acabasse”, explica Nicholas. “Por isso, há anos não consulto terapeutas reais humanos.”
Ele tentou tirar a própria vida, no último outono do hemisfério norte. Desde então, Nicholas está em uma lista de espera do NHS.
“Minha parceira e eu fomos ao consultório médico algumas vezes, para tentar conseguir [psicoterapia] mais rápido”, ele conta.
“O clínico geral colocou em encaminhamento [para consultar um terapeuta humano], mas não recebi nem mesmo uma carta do serviço de saúde mental onde moro.”
Enquanto procura assistência pessoal, Nicholas descobriu que usar o chatbot Wysa traz alguns benefícios.
“Como uma pessoa com autismo, não sou particularmente bom com interações pessoais”, explica ele. “[Acho que] falar com um computador é muito melhor.”
Crédito, Getty Images
O aplicativo permite que os pacientes se autoencaminhem para serviços de saúde mental. Ele também fornece ferramentas e estratégias de sobrevivência, como função de bate-papo, exercícios de respiração e meditação guiada.
Os pacientes podem empregar estas técnicas enquanto aguardam a consulta com um terapeuta humano ou como instrumento de autoajuda independente.
O Wysa alerta que seus serviços são projetados para pessoas que sofrem de tristeza, estresse ou ansiedade, não para casos de abusos ou condições graves de saúde mental.
O aplicativo possui rotas de crise e escalada definidas, encaminhando os usuários para linhas de assistência. Ele pode também recomendá-los diretamente para apoio, se demonstrarem sinais de automutilação ou ideias suicidas.
Nicholas também sofre de falta de sono. Para ele, é útil poder contar com apoio disponível nos momentos em que seus amigos e familiares estão dormindo.
“Houve uma vez, durante a noite, em que me senti muito mal”, ele conta. “Enviei uma mensagem para o aplicativo e disse ‘não sei se quero continuar aqui’. Ele respondeu, dizendo ‘Nick, você é importante. As pessoas amam você.'”
“Ele foi tão empático, deu uma resposta que você pensaria que fosse de um ser humano que você conhece há anos […]. E realmente fez com que eu me sentisse valorizado.”
Sua experiência reflete um estudo recente de pesquisadores do Dartmouth College, nos Estados Unidos. Eles examinaram o impacto dos chatbots sobre pessoas diagnosticadas com ansiedade, depressão ou distúrbios alimentares, em comparação com um grupo controle com as mesmas condições.
Depois de quatro semanas, os usuários dos bots exibiram queda significativa dos seus sintomas, incluindo uma redução de 51% dos sintomas depressivos. Eles também relataram nível de confiança e colaboração similar aos terapeutas humanos.
Ainda assim, o principal autor do estudo comentou que não há substituto para a assistência personalizada.
‘Solução paliativa para as listas de espera’
À parte do debate sobre o valor do aconselhamento oferecido pelos chatbots, existem também preocupações maiores sobre a sua segurança e privacidade – e se a tecnologia pode vir a ser monetizada.
“Existe aquela pulga atrás da orelha que diz: ‘e se alguém pegar o que você diz na terapia e tentar chantagear você com aquilo?'”, receia Kelly.
O psicólogo Ian MacRae, especializado em tecnologias emergentes, alerta que “algumas pessoas estão depositando muita confiança nesses [chatbots] sem que ela seja necessariamente merecida”.
“Pessoalmente, eu nunca colocaria nenhuma informação pessoal minha, especialmente de saúde ou informações psicológicas, em um desses grandes modelos de linguagem que, simplesmente, extraem toda uma tonelada de dados e você não tem total certeza de como aquilo será utilizado, o que você está autorizando.”
“Isso não quer dizer que, no futuro, não poderá haver ferramentas como esta, que ofereçam privacidade e sejam bem testadas”, explica MacRae, “mas simplesmente não acho que tenhamos atingido um ponto em que haja todas essas evidências que demonstrem que um chatbot de uso geral pode ser um bom terapeuta.”
O diretor-gerente da Wysa, John Tench, afirma que seu aplicativo não coleta informações pessoais identificáveis. Além disso, os usuários não precisam se registrar, nem compartilhar dados pessoais, para usar o Wysa.
“Os dados das conversas podem ser ocasionalmente analisados de forma anônima, para ajudar a melhorar a qualidade das respostas da IA do Wysa”, explica Tench. “Mas nenhuma informação que possa identificar o usuário é coletada, nem armazenada.”
“A Wysa também mantém contratos de processamento de dados em vigor com provedores externos de IA, que garantem que nenhuma conversa com o usuário seja utilizada para treinar grandes modelos de linguagem de terceiros.”
Crédito, Getty Images
Kelly acredita que os chatbots, atualmente, não conseguem substituir totalmente os terapeutas humanos. Para ela, “o mundo da IA é como uma roleta. Na verdade, você nunca sabe o que irá conseguir.”
“O suporte da IA pode ser útil como primeira etapa, mas não substitui a assistência profissional”, concorda Tench.
E a maior parte do público tem a mesma opinião. Uma pesquisa do instituto britânico YouGov concluiu que apenas 12% do público acredita que os chatbots de IA podem ser bons terapeutas.
Mas, com as devidas salvaguardas, alguns acreditam que os chatbots podem ser úteis como paliativos, em um sistema de saúde mental sobrecarregado.
John sofre de distúrbio de ansiedade. Ele conta que está na lista de espera por um terapeuta humano há nove meses.
Enquanto isso, ele usa o Wysa, duas ou três vezes por semana.
“Não há muita ajuda no momento”, segundo ele. “Por isso, você recorre a qualquer meio disponível.”
“É uma solução paliativa para essas enormes listas de espera… para oferecer uma ferramenta às pessoas, enquanto elas aguardam para falar com um profissional de saúde.”
Caso você seja ou conheça alguém que apresente sinais de alerta relacionados ao suicídio, ou caso você tenha perdido uma pessoa querida para o suicídio, confira alguns locais para pedir ajuda:
– Em casos de emergência, outra recomendação de especialistas é ligar para os Bombeiros (telefone 193) ou para a Polícia Militar (telefone 190);
– Outra opção é ligar para o SAMU, pelo telefone 192;
– Na rede pública local, é possível buscar ajuda também nos Centros de Atenção Psicossocial (CAPS), em Unidades Básicas de Saúde (UBS) e Unidades de Pronto Atendimento (UPA) 24h;
– Confira também o Mapa da Saúde Mental, que ajuda a encontrar atendimento em saúde mental gratuito em todo o Brasil.