Página Inicial Saúde Psicologia e IA: O ChatGPT não é seu terapeuta – 17/07/2025 – Educação

Psicologia e IA: O ChatGPT não é seu terapeuta – 17/07/2025 – Educação

Publicado pela Redação

A discussão sobre saúde mental é um dos grandes debates da contemporaneidade, especialmente depois da pandemia de Covid-19, quando o confinamento nos obrigou a romper, por um período, com as lógicas de sociabilidade no trabalho, na família e nos demais círculos a que estamos acostumados cotidianamente. Com a crescente disseminação de ferramentas de inteligência artificial generativa nos últimos dois anos, não era difícil de se imaginar que esses dois mundos, aparentemente distantes, se cruzariam em algum momento.

É exatamente o que está acontecendo com o uso de IA para simular sessões com psicólogos, detectado por alguns relatórios e estudos, mostrando que questões psicossociais e máquinas estão cada vez mais entranhadas. Um artigo recente da revista Harvard Business Review, intitulado “Como as Pessoas Estão Realmente Usando a IA generativa”, é um deles e revela que “terapia e companheirismo” estão no topo do ranking, seguidos por “organização da vida” e “encontrar um propósito”.

Em outros termos, como o próprio artigo sugere, os usos recentes da IA estão mais relacionados a padrões comportamentais íntimos do que a questões de produtividade no trabalho. É como se as pessoas vissem no ChatGPT uma espécie de terapeuta ou amigo que pode auxiliá-las a melhorar o bem-estar, escutando problemas e impulsionando reflexões existenciais.

Os dilemas em torno disso são muitos. Um chatbot não tem acesso ao seu histórico e à sua bagagem de vida, o que implica diretamente na progressão do tratamento e na escolha de abordagens e focos personalizados. Também não observa nuances de expressão facial e postura, como um profissional durante uma sessão com seu paciente, e não tem a dimensão ética e o sigilo profissional dessa relação. Simplesmente porque estamos falando de máquinas, e não de seres humanos —máquinas otimizadas para reagir a nossos sentimentos e promover a sensação de acolhimento, mas não para entender de fato o nosso contexto e as dificuldades por que passamos.

Há, ainda, questões referentes à própria IA: essas tecnologias podem trazer informações enganosas ou inventadas, que reproduzem vieses e discursos bastante problemáticos. Ademais, os dados nela inseridos não estão necessariamente protegidos, o que significa que podem ser copiados ou vazados. E, se estamos tratando de questões íntimas e sensíveis, a privacidade é fundamental.

Ciente do cenário, o Conselho Federal de Psicologia emitiu, no início do mês, um posicionamento sobre inteligência artificial e prática psicológica, em que afirma que criou um grupo de trabalho para elaborar diretrizes específicas sobre o tema.

É sabido que o acesso a tratamentos psicológicos é escasso e pode ser demorado no SUS. Tratamentos particulares, por sua vez, são caríssimos em um país extremamente desigual como o Brasil. A possibilidade de “conversar” gratuitamente a qualquer hora e sem julgamentos com “alguém” sobre seus problemas pessoais acaba sendo bastante sedutora para muita gente. Mesmo que esse “alguém” seja uma tela em branco.

Há muitas causas para os atuais níveis de adoecimento mental —não só o isolamento de uma sociedade pós-pandemia que é crescentemente digital, e cujos espaços de convivência online podem ser hostis, mas também um contexto de guerras, crise ambiental e precarização do trabalho.

A aparente naturalidade com que essas máquinas dialogam conosco, suas respostas empáticas e, mais do que isso, um mercado que as apresenta como humanóides amigáveis ou fofos, convertem-se em uma armadilha para os que estão mais vulneráveis. Uma educação digital fortalecedora deve lançar um olhar crítico sobre essas tecnologias e como elas funcionam, desconstruindo um imaginário que as apresenta como “quase humanas”, e evitando os riscos que podem resultar disso.

Você também pode gostar

Deixe seu Comentário