Terapia no ChatGPT: entenda se a inteligência artificial pode ajudar na saúde mental

Psicólogos avaliam os riscos da busca por apoio terapêutico na internet

Publicado: Atualizado:

Com o avanço da inteligência artificial (IA), novas possibilidades se abrem para o campo da saúde mental. Chatbots, plataformas de triagem e assistentes virtuais são cada vez mais utilizados tanto por profissionais quanto por pessoas que buscam apoio emocional. Mas até que ponto essa tecnologia pode, de fato, ajudar e quando ela se torna um risco?

Para o psicanalista Adriel Silva a IA tem potencial para democratizar o acesso ao cuidado. “A inteligência artificial  tem desempenhado um papel crescente no apoio psicológico, oferecendo plataformas cada vez mais acessíveis para acompanhamento, intervenções preliminares e suporte contínuo, especialmente nas regiões com escassez de profissionais especializados”, afirma.

No entanto, ele é enfático ao alertar que a substituição completa do contato humano não é desejável. “A substituição completa do atendimento humano por uma IA pode levar à perda de empatia, contato emocional genuíno e intuição clínica, aspectos cruciais nas intervenções terapêuticas”, diz Silva. Segundo ele, o risco maior está em depender excessivamente da tecnologia, o que pode distorcer a compreensão do singular, complexo e emocional que nos brinda a experiência humana.

A psicóloga Luiza Monteiro compartilha dessa visão crítica. “Há muitos riscos, justamente porque a inteligência artificial, ainda que ela tenha muitas informações, ela não tem vínculo”, afirma. Para ela, a relação terapêutica se constrói a partir do encontro humano. “O vínculo a gente consegue a partir da relação que se cria entre duas pessoas, entre dois seres humanos, a partir do momento em que a gente olha no olho, escuta o tom de voz, percebe como aquela pessoa se comunica”, explica.

IA pode ajudar? 

Ambos os profissionais reconhecem que a IA pode ter funções úteis, especialmente como ferramenta complementar. “Oferecem reforço, exercícios entre sessões e suporte emocional em momentos de maior necessidade”, diz Silva, destacando o uso entre pessoas autistas como exemplo de aplicação segura e produtiva. Monteiro concorda: “Ela pode ser útil, e eu entendo isso de forma muito benéfica, fornecendo informações básicas. Com respostas mais rápidas e genéricas.”

Porém, a psicóloga alerta para os perigos de usar IA em situações de sofrimento mais profundo: “O risco maior é se essa pessoa usa essa inteligência artificial com perguntas mais profundas, e ela fica sem resposta”. Segundo Monteiro, a IA pode não ser capaz de acessar nuances emocionais, o que é essencial em processos psicoterapêuticos mais complexos. “A inteligência artificial é puramente tecnológica, ela não é sensível ao sofrimento humano”, explica.

Ela ainda destaca que há casos em que o suporte online, mesmo com profissionais, não é recomendado: “Casos em que a pessoa pode estar em riscos de crises recorrentes, com ideiações suicidas, depressões mais graves, são alguns exemplos que não são adequados ao acompanhamento online.”

Redes sociais 

A presença constante da tecnologia também tem transformado o comportamento das pessoas. “A presença constante da internet e principalmente das redes sociais, impactou substancialmente o comportamento”, analisa Silva, relacionando o aumento de ansiedade, dificuldade de foco e sensação de inadequação a esse contexto digital.

Luiza Monteiro complementa com observações sobre mudanças na vida social. “Hoje a gente tem uma vida mais conectada, então as pessoas interagem muito mais na vida virtual e às vezes nem tanto na vida real”, observa. Segundo ela, esse desequilíbrio pode estar relacionado ao aumento de casos de ansiedade social e à dificuldade de estabelecer vínculos presenciais. “Também vejo que isso vem provocando muita comparação entre as pessoas, gerando sentimentos de inadequação, incapacidade, de solidão”, avalia.

Perigos

Luiza reforça que a IA não é capaz de compreender o histórico emocional de um paciente. “Essa orientação só viria entendendo o contexto, a história de vida, o que aquela pessoa está passando naquele momento”, explica. E quando isso não acontece, o risco de agravamento dos quadros clínicos é real: “É como se ela abrisse uma caixa e que agora ela não sabe mais o que fazer com o que tem ali.”

A reportagem simulou uma conversa sobre sentimentos com o ChatGPT e as respostas foram por um caminho de fato mais profundo. Confira:

- GPS Brasília - Portal de Notícias do DF - GPS Brasília - Portal de Notícias do DF - GPS Brasília - Portal de Notícias do DF

Adriel Silva observa que sistemas bem projetados podem até simular empatia e estabelecer certo tipo de conexão emocional com o usuário. “Estudos indicam que é possível desenvolver uma forma de conexão emocional com atendimentos digitais e com IA”, afirma. Mas ele ressalta: “A reciprocidade como uma via de mão dupla não existirá. O vínculo terapêutico neste sentido será apenas do paciente com a inteligência artificial, já o oposto não existirá”, explica. 

Monteiro acrescenta que a ausência de acolhimento humano pode ser crítica em momentos delicados. “É exatamente por isso que a inteligência artificial pode ser muito perigosa, porque a pessoa pode começar a acessar coisas que ela não sabe processar sozinha”, completa.

GPS Brasília é um portal de notícias completo, com cobertura dos assuntos mais relevantes, reportagens especiais, entrevistas exclusivas e interação com a audiência e com uma atenção especial para os interesses de Brasília.

Edição 42

@2024 – Todos os direitos reservados.

Site por: Código 1 TI