CNN —
Nos dias de hoje, com a crescente popularização dos chatbots de inteligência artificial, diversas pessoas têm recorrido a essas inovações tecnológicas como uma nova forma de apoio emocional. Tais práticas levantam questões sobre a segurança e a eficácia desse tipo de terapia virtual. Neste contexto, especialistas em saúde mental analisam o que realmente está em jogo com o uso de chatbots como uma alternativa ou complemento à terapia tradicional.
Ao iniciar uma sessão, um usuário se depara com a seguinte mensagem de um bot criado no ChatGPT: “Oi, eu sou o Therapist GPT — seu companheiro amigável e empático, aqui para te ouvir e te apoiar com qualquer coisa que estiver em sua mente.” Essa função foi disponibilizada pela OpenAI, criadora do ChatGPT, permitindo que os usuários criem suas próprias versões do bot com abordagens personalizadas.
“Se você está se sentindo sobrecarregado, precisa de orientação ou simplesmente deseja compartilhar seus pensamentos, estou aqui para ajudar. Embora eu não seja um substituto para a terapia profissional, posso oferecer conselhos reconfortantes, estratégias de enfrentamento e um espaço seguro, livre de julgamentos, para você se expressar”, continuou o bot.
Apesar de o Therapist GPT não ser um terapeuta real e a plataforma advertir para não considerar suas respostas como substituto profissional, o uso de chatbots tem crescido cada vez mais nas redes sociais, onde muitos indivíduos buscam compartilhar suas emoções e desafios psicológicos.
Um exemplo dessa nova abordagem pode ser visto na história de Mya Dunham, uma jovem de 24 anos que tem usado o aplicativo ChatGPT nos últimos dois meses em busca de conselhos e apoio emocional. Cerca de duas vezes por semana, ela se dedica a escrever suas emoções e enviá-las ao bot para análise e feedback.
“Meu objetivo é aprender uma nova perspectiva, apenas para ter um ponto de vista diferente sobre a situação, porque o que eu penso na minha cabeça é baseado nos meus próprios sentimentos”, disse Dunham em entrevista.
Ao compartilhar sua experiência em redes sociais, mais especificamente no TikTok, Dunham notou que as reações eram diversas. Enquanto alguns reconheciam o uso do chatbot como uma ferramenta terapêutica válida, outros expressaram ceticismo quanto à eficácia de se abrir para um robô.
Especialistas em saúde mental, como o Dr. Russell Fulmer, chair da Força-Tarefa sobre Inteligência Artificial da American Counseling Association, falam sobre os aspectos positivos e negativos dessa nova forma de terapia. “Em algumas situações, essa tecnologia pode ser benéfica, mas é preciso estar ciente dos riscos envolvidos”, disse o Dr. Fulmer. Ele defende que os chatbots podem ser efetivos para algumas populações que necessitam de apoio para ansiedade leve ou depressão leve.
A utilização de chatbots de IA como terapeutas
Dunham, que reside em Atlanta, comentou que já havia tentado terapia convencional algumas vezes, mas que prefere conversar com o chatbot por não se sentir julgada por expressões faciais. Essa falta de julgamento pode facilitar a abertura emocional para alguns indivíduos.
“Acredito que algumas pessoas podem se sentir mais confortáveis para compartilhar suas experiências com um chatbot do que com um ser humano”, acrescentou o Dr. Fulmer. Ele adverte, no entanto, que é importante usar essas ferramentas juntamente com a terapia humana, que pode fornecer a orientação necessária para um uso consciente e seguro.
Além disso, o uso de chatbots que não foram projetados especificamente para a saúde mental não contém parâmetros de segurança adequados. A psiquiatra Dra. Marlynn Wei ressalta que essas ferramentas podem não conseguir detectar a necessidade de intervenção humana quando a situação é crítica, podendo guiar o paciente de maneira inadequada.
Há estudos que indicam que chatbots projetados por profissionais podem ajudar na educação sobre saúde mental, por exemplo, mitigando a ansiedade e promovendo hábitos saudáveis. Contudo, a natureza intrínseca de chatbots gerais pode trazer informações errôneas sobre temas sensíveis, levando à desinformação.
No entanto, o uso de ferramentas de inteligência artificial pode ser um recurso válido para pessoas que não têm acesso à terapia tradicional, seja por questões financeiras ou de tempo. “Em certos casos, um chatbot pode ser melhor do que não ter absolutamente nenhum tipo de suporte”, afirma o Dr. Fulmer.
Contudo, é primordial que os usuários compreendam as limitações dessas tecnologias. É necessário lembrar que chatbots não são capazes de expressar empatia verdadeira e compreender nuances emocionais que um terapeuta humano pode captar.
O Dr. Fulmer adverte que é particularmente arriscado envolver menores de idade ou populações vulneráveis nesse tipo de tecnologia sem a supervisão adequada de um adulto responsável. Exatamente por essas razões legais e éticas, a empresa Character.AI enfrenta processos judiciais que a acusam de fornecer conteúdo prejudicial a menores, incluindo incitações ao automutilamento.
Chatbots versus terapeutas humanos
O Dr. Daniel Kimmel, psicólogo e professor assistente de psiquiatria clínica na Columbia University, explorou a eficácia do ChatGPT em um projeto de pesquisa. Ele notou que, embora o chatbot consiga simular conversas terapêuticas com eficiência, ele carece de um elemento essencial que define a experiência humana: a curiosidade. Durante suas interações, o chatbot deixou de fazer perguntas que poderiam aprofundar a compreensão do paciente.
“Como terapeutas, estamos escutando ativamente o que os pacientes dizem e conectando isso a uma narrativa mais ampla sobre o contexto e o histórico do paciente”, explica o Dr. Kimmel. Isso pode ser uma limitação significativa dos chatbots, que podem não ser capazes de integrar essas informações individuais de forma eficaz.
Além disso, a falta de privacidade em interações com chatbots não regulamentados se torna uma preocupação. Enquanto terapeutas humanos devem seguir normas rígidas sobre privacidade, os mesmos não se podem esperar de plataformas de chatbot, onde as informações pessoais podem não estar seguras.
“Isso é uma tecnologia que não vai desaparecer”, conclui o Dr. Kimmel, enfatizando a importância de pesquisas futuras para entender melhor o potencial e as aplicações dos chatbots na saúde mental.
Por fim, Dunham acredita que essas tecnologias podem ser um auxílio valioso, principalmente para pessoas que preferem discutir seus sentimentos de forma anônima. “Precisamos priorizar nossa saúde mental acima de tudo”, ela observa, “mesmo que isso não siga o formato tradicional de terapia, vale a pena considerar como uma ferramenta útil.”
Para ela, a mensagem final é clara: “Não devemos julgar as pessoas por como elas escolhem curar suas feridas.”
A escritora da CNN Business, Claire Duffy, colaborou nesta reportagem.