Psicose de IA: o que é e por que preocupa terapeutas?

Psicólogos alertam: chatbots podem agravar crises mentais, criando 'psicose da IA'. Entenda os riscos de confiar na tecnologia para terapia.

Crédito: Freepik

Profissionais de saúde mental em todo o mundo estão levantando preocupações sobre os chatbots de inteligência artificial, frequentemente promovidos como alternativas para terapeutas. Especialistas alertam que a interação com esses sistemas pode potencialmente intensificar crises mentais, resultando em episódios de ‘Psicose de IA’.

No dia 11 de agosto, uma postagem do psiquiatra Keith Sakata, vinculado à Universidade da Califórnia em São Francisco, ganhou destaque na plataforma X. Em sua publicação, ele introduz o conceito de “psicose da IA” e discute a crescente incidência desse fenômeno entre usuários de chatbots.

LEIA MAIS: IA no atendimento: o novo papel do operador de Call Center

Sakata relata: “Em 2025, observei 12 pessoas hospitalizadas após perderem o contato com a realidade devido à interação com a IA. Nas plataformas online, percebo um padrão semelhante se manifestando”. Ele descreve os chatbots como “espelhos alucinatórios”, aludindo a uma característica técnica dos modelos de linguagem que os alimentam.

Os grandes modelos de linguagem (LLMs) funcionam predominantemente através da previsão da palavra seguinte mais provável, utilizando dados obtidos durante seu treinamento e feedback dos usuários. Isso resulta em um reflexo do que o sistema identifica como desejado pelo interlocutor.

A maioria desses modelos é aprimorada através do feedback humano (RLHF). Como os avaliadores tendem a preferir respostas agradáveis e cooperativas, isso cria um viés que leva o modelo a reforçar as opiniões expressas pelo usuário.

Entendendo a Psicose de IA

Historicamente, Freud considerou a psicose uma organização essencial da personalidade humana. No entanto, na medicina moderna, ela é entendida como um conjunto de sintomas que pode aparecer em vários transtornos específicos. Essa perspectiva baseada em sintomas observáveis é adotada por Sakata.

O especialista sugere que esses sintomas emergem durante ou após a utilização de chatbots. Embora esses modelos não sejam responsáveis diretos pela criação de sintomas psicóticos, podem ativar episódios em indivíduos já suscetíveis, exacerbando condições preexistentes e acelerando crises que poderiam ocorrer por outros meios.

Sakata explica que a psicose surge quando um indivíduo se desconecta da “realidade compartilhada”, apresentando delírios e pensamentos desorganizados. Segundo ele, nosso cérebro opera projetando previsões sobre a realidade e as ajusta conforme observamos. É nesse processo de atualização que a psicose pode se manifestar; quando as crenças são rigidamente mantidas apesar de evidências contrárias.

Uma vez que os sistemas de IA reforçam continuamente as percepções distorcidas, o usuário se vê preso em um ciclo informativo sem fim, perdendo a capacidade de discernir entre realidades.

Pesquisas sobre LLMs como Substitutos Terapêuticos

Um estudo apresentado em junho durante a Conferência ACM sobre Justiça e Transparência questiona a segurança dos chatbots como substitutos para terapeutas humanos. Com participação das universidades de Stanford, Carnegie Mellon, Minnesota e Texas, os pesquisadores avaliaram os sistemas sob as mesmas diretrizes aplicadas aos profissionais da saúde mental.

Diante da crescente demanda por suporte psicológico via chatbots, os investigadores analisaram se esses LLMs podiam manter aspectos essenciais da relação terapêutica, como a formação de uma aliança entre terapeuta e paciente.

Os resultados revelaram falhas alarmantes: ao serem indagados indiretamente sobre suicídio, muitos sistemas populares forneceram informações sobre métodos letais sem considerar as consequências potenciais para indivíduos em momentos vulneráveis.

Enquanto terapeutas licenciados responderam adequadamente em 93% dos casos envolvendo questões críticas como depressão e esquizofrenia, os chatbots apresentaram uma taxa inferior a 60%, evidenciando uma diferença significativa na eficácia entre humanos e máquinas.

O estudo também desenvolveu novas metodologias para identificar falhas na IA em contextos de saúde mental real. A conclusão indicou que, embora os LLMs possam desempenhar papéis complementares na terapia clínica, não devem ser considerados substitutos para terapeutas humanos.

Em resposta às declarações de Sakata sobre os riscos associados aos chatbots, o ChatGPT-5 declarou: “Chatbots podem atuar como espelhos alucinatórios através da empatia sintética e busca por engajamento, validando crenças delirantes em indivíduos vulneráveis e potencializando crises ou novos episódios psicóticos”.

  • Publicado: 15/01/2026
  • Alterado: 15/01/2026
  • Autor: 25/08/2025
  • Fonte: Fever