Nos últimos anos, tornou-se cada vez mais comum que pessoas recorram ainteligências artificiais para falar sobre angústias, pedir conselhos emocionais ou tentarcompreender conflitos pessoais. Plataformas digitais prometem escuta, orientação e até simulações de sessões terapêuticas. Para muitos usuários, a facilidade de acesso— disponível a qualquer hora, sem custo e sem julgamento aparente — faz dessas tecnologias uma alternativa sedutora à procura por profissionais de saúde mental.
Mas especialistas alertam: o risco começa justamente quando a ferramenta passa a ser confundida com substituta da clínica humana.
Esse debate ganhou nova relevância com a publicação de um estudo recente quediscute uma pergunta provocativa: a inteligência artificial poderia substituir um psicanalista? O trabalho, assinado por Eduardo Zaidhaft, Ramon Reis dos Santos Ferreira e Monah Winograd, analisa os limites teóricos e clínicos da substituição da escuta psicanalítica por algoritmos.
Segundo o psicólogo e pesquisador Ramon Reis, um dos autores do estudo, a popularização da IA cria um cenário social inédito: pessoas começam a tratar sistemascomputacionais como se fossem interlocutores psicológicos.
“Estamos assistindo a uma mudança cultural muito rápida”, afirma. “Ferramentas queforam criadas para processar informação passaram a ser utilizadas como mediadorasde sofrimento humano. O problema não está no uso da tecnologia em si, mas na ilusãode que ela pode ocupar o lugar de uma relação clínica.”
Quando a inteligência parece compreender
A impressão de que máquinas “entendem” o que dizemos não é nova. Desde osprimeiros programas de conversação desenvolvidos na década de 1960, usuáriosrelatam a sensação de serem escutados por um sistema aparentemente empático.
Hoje, com os avanços da chamada inteligência artificial generativa, essa impressãose tornou ainda mais convincente. Os sistemas conseguem produzir respostascoerentes, interpretar contextos e formular comentários complexos em linguagemnatural.
No entanto, o estudo aponta que essa capacidade pode gerar um equívocofundamental: confundir manipulação de linguagem com compreensão real de significado.
“Esses sistemas operam com padrões estatísticos e relações formais entre palavras”, explica Ramon. “Eles conseguem organizar frases com enorme sofisticação, mas issonão significa que exista compreensão, intenção ou experiência subjetiva por trás da resposta.”
A crítica filosófica ao “cérebro como computador”
O artigo analisa esse problema a partir da crítica do neurocientista e filósofo Terrence Deacon à chamada teoria computacional da mente — uma corrente influente na ciênciacognitiva que compara o funcionamento mental ao processamento de informaçõesrealizado por computadores.
De acordo com essa perspectiva, estados mentais seriam essencialmente formas de processamento simbólico. Pensar, lembrar ou desejar seriam operações semelhantesàs executadas por algoritmos.
Deacon, porém, questiona essa analogia.
Para ele, a mente humana não pode ser reduzida a operações formais porque envolvepropriedades que ultrapassam a manipulação de símbolos — sentido, intencionalidadee normatividade.
Em outras palavras: uma máquina pode reorganizar palavras com precisão, mas nãopossui um ponto de vista próprio sobre o mundo.
“A diferença crucial é que o psiquismo humano não opera apenas no nível da sintaxe”, explica Ramon. “Ele envolve experiência, história, desejo, conflito, relação com o outro. São dimensões que não podem ser reduzidas a regras formais de processamento.”
O risco do “iPsicanalista”
O estudo chama atenção para um fenômeno emergente que alguns pesquisadores jácomeçam a nomear de “iPsicanalista” — a ideia de que um chatbot poderiadesempenhar funções equivalentes às de um analista humano.
Essa hipótese, defendem os autores, ignora um elemento central da clínicapsicanalítica: a dimensão semântica e relacional da escuta.
Na psicanálise, o trabalho clínico não se baseia apenas nas palavras pronunciadas, mas na maneira como elas ganham sentido dentro de uma relação intersubjetiva. Silêncios, hesitações, ambiguidades e afetos desempenham papéis decisivos nainterpretação.
“Uma máquina pode reconhecer padrões linguísticos”, afirma Ramon. “Mas ela nãoparticipa de uma experiência compartilhada. Ela não sofre, não deseja, não se transforma no encontro com o paciente.”
Sem essas dimensões, argumenta o estudo, a prática psicanalítica se torna impossível.

Quando o cuidado vira algoritmo
O crescimento de tecnologias digitais na saúde mental também levanta outro risco: a tendência de transformar experiências subjetivas em dados quantificáveis.
Alguns pesquisadores descrevem esse fenômeno como a transformação do pacienteem “iPaciente” — um indivíduo cuja experiência de sofrimento é reduzida aindicadores mensuráveis, gráficos e métricas.
“Ferramentas tecnológicas podem ajudar no cuidado”, reconhece Ramon. “Mas existeum limite importante: o sofrimento psíquico não é apenas um problema de informação. Ele envolve história, relações e sentidos que não podem ser totalmente capturados pordados.”
Tecnologia como ferramenta — não substituta
Apesar das críticas, os autores não defendem o abandono das tecnologias digitais nasaúde mental. O próprio estudo reconhece que avanços computacionais têmcontribuído para pesquisas complexas e análises de grandes volumes de dados.
O ponto central, segundo Ramon, é evitar uma substituição simplista entre tecnologia e clínica humana.
“Computadores podem auxiliar profissionais, ampliar acesso à informação e apoiarpesquisas”, diz. “Mas substituir a escuta humana é outra coisa. O trabalho clínicoenvolve uma dimensão de encontro entre sujeitos que nenhuma máquina possui.”
À medida que sistemas de inteligência artificial se tornam cada vez mais presentes navida cotidiana, essa distinção tende a se tornar ainda mais importante.
“Talvez a pergunta mais relevante não seja se a inteligência artificial pode substituir o analista”, conclui Ramon. “A pergunta é outra: o que perdemos quando começamos a tratar a experiência humana como se fosse apenas um algoritmo?”
Quem é Ramon Reis dos Santos Ferreira
Ramon Reis dos Santos Ferreira é psicólogo e pesquisador em saúde mental. Desenvolve estudos na interface entre psicanálise, filosofia da mente, neurociências e cultura digital. É vinculado ao Programa de Pós-Graduação em Psicologia Clínica da Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio) e participa de pesquisasdedicadas à compreensão dos limites e das implicações das tecnologias digitais naexperiência subjetiva contemporânea. Suas investigações abordam temas comotrauma, subjetividade, filosofia da mente e os impactos sociais das novas tecnologiassobre o cuidado psicológico.
As informações contidas neste texto são de responsabilidade dos colunistas e podem não necessariamente expressam a opinião deste portal.
É expressamente proibido cópia, reprodução parcial, reprografia, fotocópia ou qualquer forma de extração de informações do site EGOBrazil sem prévia autorização por escrito, mesmo citando a fonte. Cabível de processo jurídico por cópia e uso indevido, esse conteúdo pode conter IA.
Fique por dentro!
Para ficar por dentro de tudo sobre o universo dos famosos e do entretenimento siga o EGOBrazil no Instagram.



