Por que confiar na IA para desabafar pode ser perigoso à saúde mental?

Usuários do tiktok estão compartilhando suas seções de terapia com o modelo de IA. Foto: Reprodução/tiktok/via Diário do Nordeste

Um pedido aparentemente inocente, "Oi, Chat, você pode me dar um conselho?", feito a uma plataforma de celular, está revelando um problema profundo e crescente na saúde mental da nossa sociedade. Uma materia publicada pelo Diário do Nordeste, revela que os usuários do ChatGPT, uma ferramenta de inteligência artificial projetada para gerar texto semelhante ao humano e interagir em conversas, têm se voltado cada vez mais a ela em busca de escuta e soluções.

A ferramenta, por suas respostas rápidas e palavras gentis e acolhedoras, mas sem profundidade, chegou a ser apelidada de "terapeuta da geração Z" ou "Dr. ChatGPT". O dilema, porém, é que o chat tem sido utilizado como um substituto para psicólogos, uma prática que se tornou uma preocupante tendência em redes sociais como TikTok e X (antigo Twitter).

A nova tendência e seus riscos ocultos

Especialmente entre adolescentes e jovens adultos, não é raro encontrar publicações como "o Chat GPT virou meu terapeuta". Brincadeira ou não, a escalada de casos tem preocupado especialistas e gerado um debate intenso sobre os riscos do uso indiscriminado da inteligência artificial (IA). Entre as principais preocupações estão a disseminação de informações falsas, a falta de proteção de dados e a possibilidade de a IA contribuir para ideações suicidas e piora de quadros de ansiedade e depressão.

Marina Carvalho (nome fictício), estudante, confessou à reportagem que utiliza o chat pelo menos uma vez por semana para desabafar sobre problemas pessoais. Ela encontrou na ferramenta uma experiência acolhedora e livre de julgamentos em momentos de sobrecarga. "Em momentos difíceis, quando quero apenas compartilhar algo do meu dia a dia ou quando estou confusa, com medo de ser julgada ou de não ser compreendida, busco a ele [o chat], pois sinto que é um lugar relativamente seguro, onde posso colocar meus sentimentos para fora", relatou Marina.

Apesar do conforto encontrado, a estudante é consciente dos limites: "Sei que isso jamais substitui uma terapia com uma psicóloga, mas nem sempre teremos uma psicóloga disponível o tempo inteiro. Muitas vezes só precisamos de alguém ou algo que acolha sem julgar e sem interromper. Além disso, ainda recebo conselhos que me ajudam a entender melhor algumas coisas e tomar algumas decisões".

O alerta dos especialistas: Isolamento e dependência emocional

Um levantamento da Harvard Business Review aponta que o aconselhamento terapêutico se tornou o principal objetivo das pessoas ao utilizar ferramentas de inteligência artificial neste ano. Mas quando, exatamente, a IA deixa de ser um auxílio e passa a ser um risco para nossa saúde mental? O Diário do Nordeste te convida à reflexão com base em relatos de especialistas.

Para a psicóloga clínica Luana Silva, do grupo Reinserir, a facilidade e o baixo custo da IA podem levar à dependência emocional e à busca por respostas que nem sempre são verdadeiras. A especialista explica que a ferramenta pode ser útil apenas como um complemento ao tratamento psicológico profissional, auxiliando em pesquisas e na organização da rotina. No entanto, a IA não substitui o contato humano — crucial no processo terapêutico — e é extremamente limitada nas interações.

"A inteligência artificial muitas vezes pode trazer conselhos errôneos, imprecisos e superficiais. Porque a IA não vai entender a subjetividade de uma pessoa, o contexto social e cultural em que ela está inserida. É apenas um recorte. O Chat não vai te devolver uma pergunta ou te questionar. Então, ele coloca um recorte muito pequeno da sua existência", pontua a psicóloga.

A presença artificial em conversas como um hábito frequente pode levar o usuário a um processo de isolamento social, com o distanciamento de amigos, familiares e até mesmo do próprio terapeuta. “Essa redução de envolvimento em atividades sociais para confiar num computador ou celular por meio da inteligência artificial é muito nocivo. Precisamos conviver em sociedade, somos seres sociais, que precisam ter contato uns com os outros e estar inserido no coletivo. Essa prática acaba sendo prejudicial porque se torna intolerável”, inicia Luana Silva.

Ela complementa: "Se eu passo a semana inteira conversando com a IA, fazendo perguntas em que eu sempre vou estar certa, como vou interagir com meus amigos e lidar se eles discordam de mim? Lógico que depois de um tempo isso vai ser reforçado e eu não vou mais querer interagir com essas pessoas, eu não vou mais querer ouvir a opinião do outro. Isso vai causando essa dependência emocional de máquinas."

A psicóloga cita o filme "Her", protagonizado por Joaquin Phoenix, para explicar a relação problemática que alguns pacientes podem desenvolver com a IA. "É justamente esse processo de você não precisar ter uma responsabilidade afetiva, de você não ter que, de fato, lidar com outras emoções reais ou ser cobrado por suas atitudes. Já no processo terapêutico, há a interação entre dois humanos, então existe uma emoção, um constrangimento, às vezes, que é importante."

A fragilidade dos dados e o risco de informações falsas

Ao fazer a "terapia" com o Chat GPT, muitos usuários compartilham informações extremamente pessoais. Mas será que esses "pacientes" estão preocupados com sua privacidade e proteção de dados?

"A pessoa vira refém de falar com uma tela e muitas vezes não tem muita noção da falta de privacidade. Como esses dados serão utilizados no futuro? Como que ele produz essas informações? A gente não sabe de nada, basicamente, então acaba sendo muito prejudicial nesse sentido”, alerta Luana Silva.

"Além de o usuário fornecer informações pessoais com o chat, sem saber sobre a sua proteção de dados, o chat pode passar informações falsas. É bastante comum ver comentários sobre as mentiras que o chat conta. E com certeza isso também se dá nesse processo entre muitas aspas de ‘terapia’ com a inteligência artificial”, reflete a psicóloga.

Como a IA pode piorar ansiedade e depressão

Conforme a psicóloga Luana Silva, a prática de "desabafar" com o chat pode, além de aumentar o isolamento, piorar quadros de ansiedade e depressão. Pacientes com problemas de saúde mental, com quadros depressivos, podem apresentar mais desânimo e falta de vontade de realizar atividades básicas da rotina, o que é amplificado pelas conversas com a IA, uma vez que ela mantém o indivíduo em um processo de solidão, isolamento e melancolia.

Em casos de pacientes diagnosticados com depressão, a interação exclusiva com a inteligência artificial pode perpetuar esse isolamento social. Nesses casos, a terapia presencial é a mais recomendada. Em relação à ansiedade, a periodicidade das sessões de terapia é indicada, permitindo que o paciente reflita sobre suas emoções e angústias durante o período de espera entre os encontros com o psicólogo, gerenciando seus medos e questões de forma autônoma.

"Esse processo presencial é importante porque a pessoa vai ter que sair de casa e interagir, o que a inteligência artificial não proporciona. A sessão semanal pode ser algo muito interessante para que a pessoa possa receber as respostas ou as validações com a frequência ideal. Nesse período de espera, ela vai ter que elaborar sozinha os seus medos, as suas questões e angústias", sublinha a profissional.

Em um processo terapêutico real, o psicólogo não considera unicamente o que o paciente está relatando na sessão, mas sua bagagem emocional, questões do passado, seus propósitos de futuro, e o meio social e cultural. "Quando começamos a usar esse tipo de interação com a IA, passamos a definir a nossa tomada de decisões a partir de algo que não é real. Se você pede um conselho sobre a faculdade ou o trabalho, esse programa não consegue considerar realidade, ele não tem sentimentos humanos, então ele não vai saber como aquilo pode te afetar e qual retorno que isso vai ter para sua vida”, afirma Luana Silva.

Uso consciente da IA: Um guia para a saúde emocional

A psicóloga e neuropsicanalista Carla Salcedo oferece recomendações sobre como usar a ferramenta com responsabilidade e consciência emocional, destacando a importância de entender os limites da plataforma e seu uso apenas como um apoio complementar:

  • Perceba sua motivação: Você está conversando com o ChatGPT para clarear uma ideia ou para fugir de uma dor que tem evitado encarar?
  • Observe a frequência: Se o uso virar um hábito diário ou sempre aparecer em momentos de sofrimento, atenção: isso pode indicar dependência emocional digital.
  • Entenda o limite da ferramenta: A IA pode ajudar a organizar pensamentos, mas não identifica traumas, padrões emocionais nem constrói repertório interno.
  • Busque apoio humano: Se está se sentindo sobrecarregado, triste, ansioso ou confuso, procure um profissional. Um psicólogo pode te acolher e acompanhar com ética e presença.
  • Use a IA como apoio complementar: Ela pode ser útil para organizar a rotina, escrever um diário emocional, estruturar uma conversa difícil ou pensar em perguntas para levar à terapia.

As especialistas reforçam que o chat é um sistema criado apenas para auxiliar o humano em suas necessidades, não para substituí-lo. A comodidade de receber uma resposta a um problema em segundos não é equivalente a uma consulta com um profissional qualificado para exercer essa função.

Utilizar o chat para tirar dúvidas ou pedir conselhos pontuais pode ser produtivo e facilitar a rotina. O problema começa quando pessoas humanizam o sistema e o utilizam de forma frequente como um substituto perfeito. Essa idealização de romantizar a inteligência artificial como "terapeuta virtual" é perigosa, segundo Carla Salcedo, porque mascara uma ausência de reciprocidade. “A IA não sente, não pensa, não se importa, embora seja sempre gentil. Ela funciona com base em cálculos e padrões. E, embora isso possa gerar alívio momentâneo, está muito distante do que chamamos de cuidado", conclui a especialista.

Fonte: diariodonordeste.verdesmares.com.br

Postar um comentário

Postagem Anterior Próxima Postagem