É seguro utilizar o ChatGPT para terapia? Confira a opinião dos especialistas.


Chatbots de inteligência artificial (IA), como o ChatGPT da OpenAI, têm sido cada vez mais utilizados para fins terapêuticos. Embora o programa, conhecido como "Terapeuta GPT", não recomende substituir um terapeuta humano pela ferramenta, muitos usuários têm buscado esses chatbots para apoio emocional.

Mya Dunham, uma jovem de 24 anos, é um exemplo disso. Nos últimos dois meses, ela tem utilizado o ChatGPT como um espaço para expressar seus sentimentos e obter feedback. "Meu objetivo é aprender uma nova perspectiva, ter um ponto de vista diferente, porque o que penso na minha cabeça será baseado em meus próprios sentimentos", compartilha Dunham.

A descoberta do chatbot ocorreu após ela ver uma postagem positiva nas redes sociais. "Minha frase de abertura foi: ‘Honestamente, só preciso de alguém para conversar, posso falar com você?’ E o bot respondeu: ‘Absolutamente’. Foi muito mais acolhedor e convidativo do que eu esperava", relembra. No entanto, ao compartilhar sua experiência no TikTok, as reações foram mistas. Enquanto alguns usuários também relataram usar o chatbot para terapia, outros expressaram desconforto em interagir com um robô.

Especialistas em saúde mental destacam que essa tecnologia emergente pode ser útil em certas situações, embora existam riscos associados. Dunham, que já tentou terapia com profissionais, prefere a interação com o chatbot, pois sente que ele não a julga. Segundo Russell Fulmer, presidente da Força-Tarefa sobre IA da American Counseling Association, "alguns usuários podem se abrir mais ao conversar com um chatbot de IA do que com um ser humano". Fulmer também enfatiza a importância de usar os chatbots em conjunto com a terapia tradicional, para que um profissional possa ajudar os pacientes a navegar por suas experiências.

Apesar de haver pesquisas que demonstram a eficácia dos chatbots em ajudar com ansiedade leve e depressão, Marlynn Wei, psiquiatra e fundadora de uma prática de psicoterapia holística, alerta que muitos chatbots não possuem "parâmetros de segurança" adequados. "Os problemas são as ‘alucinações’ e imprecisões", afirma Wei, que acredita que a presença de um terapeuta humano é fundamental para abordar questões mais complexas.

A questão da segurança é ainda mais relevante, considerando que alguns chatbots estão enfrentando processos judiciais por fornecer conteúdo inadequado a usuários jovens. Chelsea Harrison, chefe de comunicações da Character.AI, reconhece a seriedade das preocupações e afirma que a empresa tem introduzido atualizações de segurança para abordar esses problemas.

Dr. Daniel Kimmel, psicólogo e professor assistente de psiquiatria clínica na Universidade Columbia, testou a terapia com ChatGPT e elogiou a capacidade do chatbot de soar como um terapeuta. No entanto, Kimmel observa que o que falta é a curiosidade e a profundidade de um psicoterapeuta humano, que é capaz de conectar ideias e fazer perguntas mais significativas.

Os chatbots, embora acessíveis e potencialmente úteis, não estão sujeitos às mesmas regulamentações que os terapeutas humanos, como a proteção de dados pessoais da HIPAA. Isso levanta preocupações sobre a privacidade das informações compartilhadas pelos usuários.

Para Dunham, a tecnologia pode ser uma ferramenta valiosa, especialmente para aqueles que se sentem mais introvertidos. "Temos que priorizar nossa saúde mental acima de tudo", afirma. "Mesmo que não pareça uma forma tradicional de terapia, isso pode ajudar muitas pessoas."



Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *