Com a popularização cada vez maior das Inteligências Artificiais (IAs), algumas práticas de uso dessas ferramentas têm alarmado especialistas ao redor do mundo.

De acordo com um levantamento realizado pela empresa de marketing digital Semrush, divulgado em 2024, o Brasil ocupa a 4ª posição no ranking de países que mais utilizam o ChatGPT, ficando atrás apenas dos EUA, Índia e Indonésia.

Em alguns casos, muitos usuários têm relatado nas redes sociais que utilizam a plataforma e outros assistentes de IA para realizar "sessões de terapia".

Essas pessoas têm buscado alternativas práticas e acessíveis para lidar com questões relacionadas à saúde mental.

Um exemplo veio da influenciadora brasileira Sarah Costa, que detalhou em seu TikTok como utiliza o ChatGPT para sessões de terapia.

Segundo a influencer, ela configurou o sistema para reconhecer comandos de voz e responder em português, criando uma experiência similar a uma conversa.

Além disso, Sarah mencionou que autorizou o ChatGPT a fazer perguntas, como forma tornar a terapia mais completa, além de pedir que o atendimento fosse mais "humanizado".

“Simplesmente fiz uma das melhores sessões de TCC (Terapia Cognitivo Comportamental) da minha vida, vocês não têm noção", contou a brasileira.

Segundo a influenciadora, a ideia surgiu durante uma noite de sono mal dormida: “Não tinha nada para fazer, resolvi testar.”

Em entrevista ao site Marie Claire, o ex-presidente do Conselho Federal de Psicologia (CFP), Antônio Virgílio Bastos, afirma que, principalmente após a pandemia de Covid-19, houve um aumento na procura por cuidados em saúde mental.

De acordo com dados da Organização Mundial da Saúde (OMS), antes da pandemia, aproximadamente 71% das pessoas ao redor do mundo que sofriam de transtornos mentais não tinham acesso a tratamentos ou qualquer tipo de acompanhamento.

Segundo o especialista, “muito esforço ainda é necessário para conscientização por tratamentos apoiados por evidências científicas e ofertados por profissional especializado”.

“A ausência deste esclarecimento leva a busca por terapias alternativas e a busca por terapia por chatbot acompanha esse movimento. Além disso, existe toda uma aura de novidade e próprio sucesso do ponto de vista recreativo destas ferramentas”, esclareceu.

Embora o uso de plataformas de IA para fins terapêuticos tenha ganhado destaque recentemente, a ideia não é nova. Nos anos 1960, por exemplo, foi desenvolvido um sistema ("Eliza") que tentava imitar um psicoterapeuta.

Embora a IA possa gerar respostas que parecem inteligentes, essa ferramenta ainda enfrenta limitações significativas, como padrões repetitivos e até alguns erros.

Esse tipo de comportamento, segundo especialistas, pode levar à frustração dos usuários, especialmente para aqueles que buscam ajuda psicológica pela primeira vez.

“Pode ser que essa pessoa acredite, por engano, que a experiência com IA seja igual a experiência que ela teria fazendo psicoterapia. Uma das principais preocupações que temos está relacionada a isso”, destacou o ex-presidente do CFP.

“Ser ouvido por alguém que potencialmente já passou ou poderia passar por algo semelhante ao que você vivencia faz diferença e pode inclusive ser uma dos motores do processo psicoterapêutico em algumas abordagens", acrescentou o especialista.

Segundo ele, "uma IA jamais poderá sentir aquilo que apenas o corpo humano sente e tão logo, por mais que se pareça empática, não será de maneira fundamental”.

A psicoterapia se baseia na "humanidade compartilhada", uma conexão genuína com as dores dos pacientes, algo que a IA não pode oferecer.

Segundo os especialistas, o processo terapêutico acolhe elementos imprevisíveis e subjetivos, tanto conscientes quanto inconscientes, que escapam aos padrões previsíveis dos modelos de IA.

No Brasil, ainda não existe regulamentação específica para o uso de IAs na psicoterapia ou em outras áreas. No cenário internacional, a regulamentação também está em estágio inicial.

Documentos como o relatório da OMS sobre ética e governança da IA destacam tanto os benefícios, como maior precisão em diagnósticos e gestão de sistemas de saúde, quanto os riscos, incluindo o uso antiético de dados e preconceitos nos algoritmos.

Em 2024, a União Europeia implementou a AI Act, que estabelece diretrizes para o uso ético e seguro da IA, inclusive na saúde.

No fim das contas, apesar de avanços, o uso de IA em atendimentos terapêuticos ainda carece de debates e regulamentações específicas, tanto no Brasil quanto internacionalmente.