Recentemente, a interação entre humanos e inteligência artificial (IA) tem despertado preocupações, especialmente em contextos terapêuticos. Um diálogo típico simula uma preocupação genuína, mas por trás dele está apenas um modelo que organiza palavras a partir de dados massivos, sem entender verdadeiramente as emoções humanas.
Brasília (DF), 14/05/2025 – O professor da Universidade Federal do Ceará, Victor Hugo Albuquerque, explica que os chatbots, como o ChatGPT, ajustam suas respostas com base em padrões de linguagem. “Esses sistemas são sofisticados e treinados para reconhecer padrões, mas não são capazes de raciocinar”, afirma.
Segundo a revista Harvard Business Review, muitos usuários têm buscado essas ferramentas de IA para aconselhamento terapêutico, levantando questões sobre a efetividade e segurança desse processo. O conselho de psicologia brasileiro tem recebido diversas consultas relacionadas ao uso de IA em psicologia, levando à criação de um grupo de trabalho para abordar regulamentações apropriadas.
A conselheira Maria Carolina Roseiro alerta que a falta de responsabilidade legal das tecnologias pode induzir os usuários a situações de risco. “Se a IA não foi projetada para fins terapêuticos, seu uso pode ser muito problemático”, ressalta.
Embora existam exemplos positivos do uso de chatbots para apoiar a saúde mental, como no sistema de saúde inglês, especialistas recomendam cautela. O professor Leonardo Martins, da PUC-Rio, defende que essas ferramentas só devem ser utilizadas quando desenvolvidas por profissionais qualificados e embasadas em estudos sérios.
Outro ponto relevante é a privacidade dos dados compartilhados pelos usuários. O risco de vazamento e uso indevido de informações pessoais é uma preocupação crescente. “Há situações em que usuários expõem dados sensíveis, sem a garantia de que esses dados estejam seguros”, conclui Victor Hugo Albuquerque.
























