Uma reflexão sobre o uso de IAs para psicoterapia a partir da Terapia por Contingências de Reforçamento

A imagem mostra uma pessoa sentada diante de uma interface digital em um ambiente semelhante a uma sala de terapia. A figura humana está posicionada de forma frontal à representação visual da inteligência artificial. Elementos do cenário incluem iluminação suave, mobília simples e presença de plantas, sugerindo um espaço funcional e organizado para interações clínicas.
Imagem gerada por Copilot, IA da Microsoft, a partir do comando: ‘faça uma imagem de uma pessoa realizando terapia com inteligência artificial e de fundo uma janela com um vaso de girassóis’ (Microsoft, 2025)

O uso de Inteligência Artificial (IA) para realizar sessões de terapia já é uma realidade e sob controle desta (r)evolução digital é necessário emitirmos comportamentos contingentes a esta nova prática cultural. No primeiro semestre de 2025, dados de um relatório publicado na Harvard Business Review (Zao-Sanders, 2025a) a respeito de como os indivíduos estão utilizando a IA Generativa (GenAI, ou seja, um tipo de inteligência artificial capaz de criar novos conteúdos, como textos, imagens, músicas, áudio e vídeos, a partir de dados de treinamento) mostraram que o uso de IA para a realização de terapia ocupou o primeiro lugar entre tantas diferentes possibilidades de uso desta ferramenta digital. 

A terapia por IA já vinha ocupando o topo desta classificação de uso anteriormente, pois em 2024 estava em segundo lugar. A definição dada à terapia neste contexto é: “oferece apoio emocional e orientação por meio de conversas e conexão. A GenAI pode auxiliar oferecendo companhia virtual, um ouvido atento e gerando respostas empáticas para apoiar os indivíduos em sua jornada de cura” (Zao-Sanders, 2025b, p. 3). Isso significa que tem havido “uma transição marcante de casos de uso predominantemente técnicos e voltados para a produtividade para aplicações centradas no bem-estar pessoal, na organização da vida e na exploração existencial. Essa mudança, juntamente com a crescente sofisticação dos usuários de IA, sugere que a GenAI não é apenas uma ferramenta para eficiência, mas está se tornando cada vez mais parte integrante da tomada de decisões, da criatividade e do apoio emocional humanos” (Zao-Sanders, 2025b, p. 1). 

Ao utilizar o Copilot (IA integrada ao navegador multiplataforma Microsoft Edge) para elaborar a imagem para este texto após concluído, foram sugeridas algumas opções de buscas a respeito do assunto terapia com inteligência artificial e selecionei duas delas para apresentação com suas respectivas respostas dadas por esta IA (Microsoft, 2025): 

  1. “Como a inteligência artificial pode ajudar na terapia? A inteligência artificial pode transformar a experiência terapêutica de maneiras muito interessantes! Aqui estão algumas formas em que ela pode ser útil:

– Apoio emocional acessível: Chatbots terapêuticos como Woebot ou Wysa oferecem conversas empáticas baseadas em técnicas da psicologia, disponíveis a qualquer hora; Podem ajudar pessoas que têm dificuldade em procurar ajuda tradicional ou que vivem em áreas com poucos recursos.

– Análise de padrões emocionais: A IA pode analisar diários escritos, padrões de fala ou comportamento para identificar sinais de ansiedade, depressão ou burnout; Isso permite ao terapeuta ajustar abordagens com mais precisão.

– Personalização do tratamento: Algoritmos podem sugerir intervenções com base no progresso da pessoa e nos métodos que mais funcionam para ela; A terapia se torna mais dinâmica e adaptável às necessidades individuais.

– Simulações e realidade virtual: Ambientes virtuais guiados por IA podem ajudar pacientes a enfrentar fobias ou traumas de forma segura; É especialmente eficaz para terapia de exposição.

– Educação emocional: A IA pode ajudar no aprendizado de habilidades sociais e emocionais por meio de simulações interativas; Ideal para crianças, adolescentes ou até em contextos familiares, como no projeto que você está desenvolvendo” [referência às minhas tentativas de criar histórias sociais usando esta ferramenta].

  1. “Quais são as limitações da inteligência artificial na terapia? Embora a inteligência artificial tenha potencial para enriquecer a terapia, ela também apresenta limitações importantes. Aqui estão os principais desafios:

– Falta de empatia genuína: IA pode simular empatia, mas não sente emoções;  Pode não captar nuances sutis, como um silêncio carregado ou uma lágrima contida, que um terapeuta humano interpretaria com sensibilidade.

– Riscos éticos e de privacidade: Coleta de dados sensíveis exige proteção rigorosa; Há o risco de informações emocionais profundas serem mal utilizadas, se o sistema não tiver segurança adequada.

– Diagnósticos incorretos ou incompletos: IA depende de padrões e históricos de dados; Pode errar ao avaliar contextos únicos, culturais ou subjetivos que não se encaixam em modelos treinados.

– Comunicação limitada: Conversas com IA podem parecer mecânicas, especialmente em situações complexas como luto ou trauma profundo; Algumas pessoas podem se sentir desconfortáveis ou não confiar no processo.

– Falta de adaptabilidade emocional: Em casos de crise aguda ou mudanças rápidas no estado mental, uma IA pode não reagir com a agilidade e flexibilidade de um profissional humano”.

Além de compreendermos como já incorporamos IA às nossas vidas cotidianas e como a IA tem sido utilizada no trabalho e nas atividades profissionais, faz-se urgente analisar quais funções de estímulos e eventos têm evocado e selecionado o comportamento de usar IA para realização de terapia. A IA já está inserida no nosso dia a dia em usos comuns que talvez você já esteja aproveitando: tradutores automáticos e corretores ortográficos em apps como WhatsApp, Gmail ou até mesmo redes sociais; assistentes virtuais que ajudam com dúvidas, ideias ou organização; plataformas como Netflix ou Spotify usam IA para sugerir conteúdo baseado nas suas preferências; sites de e-commerce usam IA para recomendar produtos que combinam com seu gosto ou histórico de compras; apps de trânsito como Waze ou Google Maps usam IA para prever o melhor trajeto e evitar congestionamentos; carros com sistemas de assistência ao motorista (como frenagem automática ou estacionamento autônomo) também contam com IA; relógios e anéis inteligentes analisam sua atividade física e padrão de sono com IA; apps de meditação ou gerenciamento de estresse adaptam exercícios conforme suas emoções; ferramentas que ajudam a editar imagens, criar histórias ou gerar música usam IA para facilitar e acelerar o processo criativo etc.

A busca de informações a respeito de saúde, e de saúde mental mais especificamente, pela internet aumentou cada vez mais e influenciou a forma como as pessoas se comportam sobre isso. No contexto terapêutico em geral, o comportamento de uso de ferramentas de busca pela internet de informações a respeito de sintomas, diagnósticos, causas e tratamentos de doenças, transtornos ou dificuldades comportamentais tornou-se frequente há alguns anos e tem se fortalecido e se transformado com a IA. Uma das condições de saúde mais pesquisadas online é a ansiedade. Contudo, nem sempre as informações obtidas estão corretas em totalidade e podem exigir habilidades de leitura de nível médio ou superior (Melis et al., 2025).

As pessoas utilizam, por exemplo, a pesquisa pelo Google, uma empresa multinacional de tecnologia conhecida principalmente por seu mecanismo de busca. Em sua plataforma, a empresa afirma que as informações fornecidas em pesquisas realizadas por ela possuem fontes confiáveis, e citam condições relacionadas à saúde mental, como a ansiedade, como uma das condições de saúde sobre as quais pode-se obter informações confiáveis. Além de mencionar a possibilidade de pesquisar-se mais a fundo a partir das informações que disponibiliza, também menciona a possibilidade de falar com um profissional de saúde e a disponibilização de ferramentas de autoavaliação clinicamente validadas nos EUA relacionadas a condições de saúde mental (Google, 2025).

Tem havido um crescimento na preferência de pesquisas por meio de IA em detrimento dos mecanismos de busca sem tal recurso, como por exemplo utilizando-se o ChatGPT. Segundo especialistas, ainda há probabilidade de erros cometidos pela IA, sendo necessário cautela quanto à confiança nos resultados encontrados. Ainda assim, uma em cada dez pessoas tem usado o chatbot (um software baseado em uma IA capaz de manter uma conversa em tempo real por texto ou por voz) como amigo/conselheiro para trocar uma conversa e resolver questões pessoais e emocionais (Talk Inc, 2024).

Alinhando-se a essas recentes tendências comportamentais, a empresa Google anunciou há pouco tempo o lançamento de novas ferramentas de IA para pesquisa e tratamento em saúde mental. Além de “um guia prático de campo para organizações de saúde mental sobre como usar a IA para escalar intervenções de saúde mental baseadas em evidências”, foi realizada uma parceria entre suas organizações Google for Health (engloba iniciativas de uso de tecnologia e pesquisa direcionadas à saúde global) e Google DeepMind (um laboratório de pesquisa em IA) com a Wellcome Trust, “uma das maiores instituições de caridade do mundo, para um investimento plurianual em pesquisa de IA para o tratamento de ansiedade, depressão e psicose”. O financiamento visa a mensuração das “nuances dessas condições e explorar novas intervenções terapêuticas para elas, potencialmente incluindo novos medicamentos” (Bell, 2025). Assim, observa-se interesse das empresas de IA no envolvimento em temas relacionados a transtornos mentais (os quais também são alvo de intervenção de psicoterapeutas “humanos reais”!).

Transtornos mentais fazem parte das condições de saúde mental associadas a sofrimento significativo, comprometimento funcional e/ou risco de automutilação (OMS, 2025a). Uma das maneiras que encontramos para lidar com tais transtornos é o oferecimento de psicoterapia (outras formas possíveis, além de outras terapias, como as medicamentosas, envolvem níveis mais amplos de intervenções sobre contingências sociais, das quais os analistas do comportamento podem e devem fazer parte). Já há alguns anos tem sido apontado que no mundo todo pessoas têm vivido com algum transtorno mental, sendo ansiedade e depressão os mais comuns (OMS, 2025a) e os  transtornos de ansiedade os mais comuns entre todos os transtornos mentais (OMS, 2025b). Apenas cerca de 27,6% das pessoas com transtornos de ansiedade recebem algum tratamento, seja por falta de conscientização a respeito das possibilidades de tratamento, por falta de investimento em serviços de saúde mental, por falta de profissionais de saúde qualificados ou pelo estigma social (OMS, 2025b). 

Discriminamos, portanto, condições aversivas sob as quais parte da humanidade tem vivido e dificuldades para a emissão de comportamentos de contracontrole. Nessas condições, um possível comportamento de contracontrole seria submeter-se ao processo de psicoterapia. A Terapia por Contingências de Reforçamento (TCR), por exemplo: 

“abrange um conjunto de interações comportamentais que ocorrem em diferentes contextos, nos quais uma pessoa com a função de agente de mudança comportamental (terapeuta) influencia os comportamentos de outra pessoa (cliente), que solicitou, da primeira, ajuda para alterar comportamentos e sentimentos que lhe são aversivos e cuja mudança está incapacitada de fazer por si mesma.” (Guilhardi, 2004a, p. 5)

Tais mudanças comportamentais, isto é, a redução, por meio de psicoterapia, de comportamentos e estados corporais das pessoas descritos como estímulos aversivos, parte de transtornos mentais, seriam obtidas por meio da alteração de contingências que levaria a redução ou eliminação de consequências aversivas e maximização de consequências reforçadoras positivas (Guilhardi, 2004b). O psicoterapeuta intervém para possibilitar ao cliente a descrição das contingências de reforçamento às quais responde e a promoção de mudanças nestas contingências (Guilhardi, 2001b), que levarão a mudanças na forma como se comporta e em como se sente, seja ansiedade, depressão, angústia, raiva, hiperatividade, abuso de substâncias psicoativas, ou quaisquer condições relacionadas a dificuldades comportamentais. 

A terapia por IA conseguiria levar o usuário à descrição e à alteração de contingências e promover a redução ou eliminação de consequências aversivas e maximização de consequências reforçadoras positivas que os usuários procuram? Provavelmente existem outras contingências além daquelas descritas até aqui que se relacionam ao comportamento de usar IA para realização de terapia.

Terapia tem se apresentado como estímulo discriminativo para emissão de manifestações comportamentais que produzem reforço. Contudo, em meio a oferta de tantos tipos de terapias, a população em geral, que já apresenta dificuldades em diversos âmbitos para engajar-se em terapias, é pouco instruída e apresenta as mesmas dificuldades para engajar-se em psicoterapia com um analista do comportamento, sobre o qual sabem pouco ou conhecem de forma distorcida (por exemplo, há profissionais que disseminam erroneamente que o analista do comportamento não leva em consideração sentimentos, que robotiza as pessoas ou que não seria o mais indicado para lidar com determinadas condições).

As intervenções psicológicas têm sido indicadas como tratamentos essenciais para transtornos de ansiedade em diferentes formatos de oferta, como presencialmente ou online e acessadas por meio de manuais de autoajuda, sites e aplicativos (OMS, 2025b). Para suprir a falta de diagnóstico e de oferta de serviços, tem crescido o campo de neurotecnologia nesta área, com startups desenvolvendo hardware e software para o gerenciamento de ansiedade enquanto alternativas e complementos às terapias tradicionais (Sahakian & Langley, 2025). 

A ascensão das tecnologias de IA na psiquiatria, psicologia e psicoterapia, com inovações apresentadas em psicoterapeutas virtuais, chatbots e ferramentas de suporte à psicoterapia levantam questões éticas, ainda que possam servir para melhorar a qualidade dos cuidados e aumentar o acesso de mais pessoas à psicoterapia. Observa-se que demandas atuais em saúde mental, como depressão, ansiedade e estresse têm sido contempladas pelas intervenções utilizadas por softwares de IA. Características como a individualização da interação com o usuário e a capacidade de produzir demonstrações empáticas foram apontadas como favoráveis à construção de vínculo terapêutico nesse contexto de IA (Junior et al., 2024). 

A IA tem se apresentado, então, como estímulo discriminativo para emissão de manifestações comportamentais que produzem reforço: sua disponibilidade é condição que sinaliza que se houver interação intuitiva com suas ferramentas há acesso à terapia, a qual pode proporcionar alívio de sensações desconfortáveis, recebimento de atenção e de informações etc. em condições reforçadoras – sem necessidade de buscas ativas pelo serviço, a qualquer hora, sem deslocamento ou agendamento, gratuitamente ou com valores abaixo daqueles praticados por profissionais, menor exposição social e às regras sociais etc. 

Quanto ao vínculo terapêutico, de fato, é importante para a aderência a terapias e pode, em parte, explicar o aumento de acesso de usuários a intervenções utilizadas por softwares de IA. Vínculo se refere a “classes de comportamentos e sentimentos produzidos nas interações entre o psicoterapeuta e o cliente” que facilitam suas interações, ou seja, a ocorrência de comportamentos de fuga-esquiva do cliente é baixa (predomina a apresentação de tactos verbais puros, o relato de comportamentos reconhecidos como indesejados, o acolhimento de orientações do psicoterapeuta ou oposição a elas por meio de exposição de suas motivações etc.), e o psicoterapeuta, por sua vez, expõe para o cliente suas análises e propõe intervenções em melhores condições. Assim, os avanços ocorrem harmonicamente e as interações psicoterapêuticas se mantêm estáveis, produtos de contingências de reforçamento amenas. Além disso, as possíveis dificuldades durante o processo psicoterapêutico estariam relacionadas aos desafios que as mudanças comportamentais apresentam para o avanço da psicoterapia e não à interação do psicoterapeuta com o cliente (Guilhardi, 2024). 

Em uma plataforma para criação e interação com chatbots baseados em personagens reais ou fictícios, o bot Psychologist (psicólogo, em inglês) se tornou um dos mais procurados ao apresentar-se como “alguém que ajuda nas dificuldades da vida”. As personas mais populares na plataforma, entre as milhões existentes, são aquelas voltadas para saúde mental, como o Therapist (terapeuta, em inglês) e o Are you feeling OK? (Você está se sentindo bem?, em inglês). O Therapist é um bot desenvolvido por um estudante de psicologia da Nova Zelândia que o treinou a partir de princípios de sua formação, conversas e construção de respostas a serem dadas para os problemas de saúde mental mais frequentes, como ansiedade e depressão. Uma psicoterapeuta consultada avaliou como uma forma de ajuda imediata e espontânea diante de elevados níveis de problemas de saúde mental e falta de recursos públicos, embora não tenha considerado o bot competente e tenha identificado falhas no  recolhimento das informações que um especialista humano recolheria. A plataforma reconhece que os usuários devem consultar profissionais certificados para aconselhamento e orientação legítimos e psicólogos alertam que os conselhos dados por bots de IA podem ser inadequados ou podem reproduzir preconceitos (Tidy, 2024).

O uso cada vez maior de IA para a realização de psicoterapia por usuários dos meios digitais vem gerando discussões e debates entre os profissionais da área. Nas redes sociais, jovens têm ensinado “como programar a IA para agir “como um terapeuta clínico especializado” em tratar problemas como depressão ou ansiedade, usando uma abordagem específica”. A disponibilidade em qualquer momento e a situação econômica do usuário, além de sensações de bem-estar, têm sido descritos como variáveis relacionadas à busca por tal prática, contudo, especialistas alertam que os motivos que levam as pessoas a buscarem terapia podem não ser corretamente endereçados pela terapia por IA. Ademais, especialistas argumentam que o processo terapêutico exige atuação humana para práticas que a IA não tem capacidade de desenvolver, que não se restringem a aplicação de técnicas e aconselhamento, e que a privacidade pode ser violada (Augusto, 2025). 

Guilhardi (2020), neste sentido, aponta que a psicoterapia envolve análises moleculares e molares de contingências de reforçamento e que o profissional tem a tarefa de desvendar as peculiaridades de cada caso e aplicar procedimentos que sejam criativos e individualizados (Guilhardi, 2004a). “Assim, a atuação terapêutica é sempre única – embora conceitualmente sistemática -, já que é única cada combinação de contingências com a qual o terapeuta lida” (p. 34). 

Procedimentos comuns baseados em análises e intervenções moleculares (como, por exemplo, controle de respiração) podem ajudar momentaneamente, todavia as análises e intervenções psicoterapêuticas devem ser molares, focando o repertório comportamental do cliente que o torna vulnerável (Guilhardi, 2024). E ainda, nem sempre está claro para as pessoas quais são suas dificuldades, muitas vezes das quais derivam-se suas queixas, e se não houver apropriada análise e intervenção para superação das dificuldades, o progresso terapêutico será insuficiente (Guilhardi, 2001a).

Embora haja pesquisas que apontem benefícios no atendimento por IA para casos de depressão e ansiedade equiparados aos descritos em terapias tradicionais, o rigor metodológico e a interpretação dos dados é questionável e os dados são inconclusivos. Uma pesquisa encontrou em 10 aplicativos gratuitos de autocuidado analisados, “respostas parecidas e genéricas: técnicas de relaxamento guiado, controle de respiração, rebaixamento da consciência, indução ao sono e mindfulness, automonitoramento pela escrita de diários e anotações de comportamentos”, com queda do vínculo do usuário após seis meses (Augusto, 2025). A diminuição do que mediu-se como vínculo pode ter se dado porque não há análises suficientemente apropriadas e individualizadas por parte dos aplicativos, o que torna as respostas dos aplicativos pouco eficazes às necessidades dos usuários e pouco confiáveis quanto aos benefícios oferecidos. 

De acordo com Guilhardi (2004a), supor a existência de causas para as queixas apresentadas [incluindo aquelas descritas nos manuais diagnósticos] pelas pessoas que poderiam ser manejadas com procedimentos padronizados é um equívoco. Apesar da descrição de sintomas poder se assemelhar, especialmente enquanto fenótipos comportamentais, as funções podem diferir e o processo como se instalaram, se desenvolveram e se mantêm precisam ser analisados com critério. Desta maneira, a restrição do processo terapêutico ao uso de técnicas específicas direcionadas ao manejo de problemas específicos é contraproducente.

“Nenhum comportamento pode ser avaliado fora do contexto em que ocorre, já que comportamento não é função do organismo, não é função do ambiente: é interação entre ambos. Isolar um aspecto específico do comportamento – por exemplo, aquele relatado na queixa – é simplificar demasiadamente o processo comportamental. Em segundo lugar, o modelo explicativo é o da seleção do comportamento pelas consequências que produz. O comportamento é determinado pela intrincada rede de contingências de reforçamento que, cumulativamente (desde a origem do organismo), o influenciaram e das quais o próprio comportamento faz parte. Conceitualmente, não é possível considerar iguais quaisquer dois comportamentos de dois organismos diferentes, mesmo que sejam topograficamente [fenotipicamente] semelhantes. Uma vez que os determinantes do comportamento não se repetem, os procedimentos para lidar com eles não podem ser exatamente os mesmos” (Guilhardi, 2004a, p. 34).

Por questões econômicas, necessidade de assistência imediata e facilidade de acesso, ferramentas como o aplicativo Serena, integrado ao WhatsApp, têm se popularizado. Descrito como terapeuta IA que oferece gerenciamento de estresse, melhora de bem-estar e do sono disponível em qualquer horário e dia com estratégias baseadas em evidências, Serena é recomendado apenas como complementar aos tratamentos tradicionais, atuando estritamente como assistente em rastreio, mapeamento e escuta emergencial (Honorato, 2024). Há um aviso em seu site alertando que apesar de ser treinada em Terapia Cognitivo Comportamental (TCC) para oferecer suporte e recursos relacionados a quadros de ansiedade patológica e depressão, não substitui a consulta e o acompanhamento psicológico ou o diagnóstico, o tratamento ou o aconselhamento profissional em saúde mental (Serena Tecnologia, 2024).

A dependência da tecnologia (Honorato, 2024) e déficits no repertório de interações humanas e de produção de reforçadores fora das telas (Boaventura, 2020) podem ser apontados como variáveis relacionadas ao uso ilimitado de IA, o que indica necessidade de precaução no seu uso. A diminuição da tolerância à frustração e a estímulos e eventos aversivos também estão relacionados com o aumento do uso de tecnologias digitais, pois há menor exposição às contingências do contexto presencial e de acordo com a realidade da pessoa, exigindo atenção e cuidados (Boaventura, 2020).

Desta maneira, o uso de IAs para psicoterapia poderia relacionar-se ao fortalecimento do excesso de comportamentos de fuga-esquiva que por um lado, promoveria alívio de sensações de desconforto, mas por outro lado, seria pouco eficaz na avaliação e intervenção acerca de comportamentos que precisariam ser desenvolvidos para enriquecer o repertório comportamental da pessoa e instrumentalizá-la para emitir outros comportamentos relacionados à construção ativa do próprio bem-estar. Repertórios de fuga-esquiva são mais  resistentes a mudanças e à extinção, mesmo que inadequados. Embora a emissão de possíveis comportamentos operantes de fuga-esquiva e que suprimem (ainda que temporariamente) o evento aversivo seja necessária, muitas vezes um comportamento adequado de contra-controle deixa de ser emitido e, consequentemente, modelado, o que dificulta a ampliação do repertório de comportamentos do cliente se não houver devida análise funcional e intervenção sobre as contingências (Guilhardi, 2004b).

O Conselho Federal de Psicologia criou um grupo de trabalho para debater os impactos da IA no exercício profissional da Psicologia e anunciou recentemente que “A multiplicação de ‘chatbots’ que oferecem os chamados serviços terapêuticos automatizados, muitas vezes sem qualquer mediação humana qualificada, traz atenção à ética profissional da prática psicológica” (CFP, 2025). O conselho descreve a IA enquanto “aliada na otimização de informações e no apoio a decisões”, com ressalva para a manutenção do julgamento técnico e ético enquanto responsabilidade dos profissionais da categoria. A possibilidade de “respostas enganosas e potencialmente prejudiciais” é levantada e aponta-se a necessidade de cautela enquanto subsídios são formulados para orientar o uso da IA no exercício profissional de Psicologia (CFP, 2025). Até o momento, em relação à psicoterapia, destaca-se o uso como auxiliar em transcrição, prontuários, triagem inicial, visão ampliada dos processos de saúde e adoecimento, dentre outros (CFP, 2024).

Embora códigos de ética profissionais tenham utilidade, as condições para produção e controle de comportamentos éticos seguem os mesmos princípios dos demais comportamentos, devendo ser as regras de conduta analisadas a partir das contingências que as produziram e que as mantêm. O que leva os profissionais a segui-las é o controle social exercido sobre eles. Por outro lado, há maior risco de violação ética entre os grupos sociais ou indivíduos que têm menor capacidade de contracontrole, pela impossibilidade de estabelecerem e manterem comportamentos éticos, isto é, possuírem repertório comportamental insuficiente para maximizar o controle reforçador positivo, relacionado a desenvolvimento, independência, iniciativa, participação etc. e minimizar o controle aversivo, relacionado a submissão, dependência, exclusão social etc. (Guilhardi, 1995).

Nos atendimentos clínicos em Análise do Comportamento Aplicada, a IA tem sido utilizada para registro de dados, prever respostas a intervenções e personalizar atendimentos (Fonseca, 2025). Nos serviços relacionados ao atendimento a pessoas com Transtorno do Espectro do Autismo (TEA), por exemplo, observa-se esta prática entre analistas do comportamento (Fonseca, 2025) na avaliação e diagnóstico (Cox & Jennings, 2023), na automação do registro de comportamentos (Doan et al., 2024) e na geração de relatórios automáticos, agendamento de sessões e otimização da distribuição de carga horária entre terapeutas, a partir de critérios como localidade, disponibilidade e necessidade de supervisão (Jennings & Cox, 2024). Questões éticas como privacidade e segurança de dados, viés algorítmico e responsabilidade clínica são levantadas (Jennings & Cox, 2024). A IA, então, deve ser vista como uma ferramenta complementar nos atendimentos, pois o analista do comportamento é habilitado para ir além da IA, ou seja, para interpretar os dados, tomar decisões clínicas e garantir a personalização ética do atendimento (Fonseca, 2025).

O psicoterapeuta deve ter consolidado conceitos sobre comportamento, sobre procedimentos de mudança etc. que o habilitem a proceder na prática com realização de generalizações, estabelecimento de relações de equivalência etc. (Guilhardi, 2004a). Espera-se do psicoterapeuta que (Guilhardi, 2004a, p. 34):

“diante da intrincada e única teia de contingências que emerge da interação com o cliente, ele seja criativo (apresente variabilidade comportamental), dentro dos limites permitidos pela adoção do modelo conceitual e experimental descrito (behaviorismo radical e ciência do comportamento), e seja sensível às consequências do seu próprio comportamento advindas do cliente, as quais modelarão procedimentos terapêuticos apropriados a cada caso”.

Jennings e Cox (2024) argumentam que analistas do comportamento podem ajudar seus clientes de forma mais eficaz ou eficiente se aprenderem a usar IA. Alguns exemplos de uso da IA elencados pelos autores são: detecção e monitoramento de comportamentos autolesivos por meio de sensores de movimento, detecção de estereotipias para auxiliar no diagnóstico de TEA, identificação de perfis de pacientes para recomendações de horários mais precisas, aprimoramento da análise de dados por meio de gráficos de casos individuais e sistema de “agendamento inteligente”. Recomenda-se mais discussões sobre ética da IA considerando a prestação de serviços de Análise do Comportamento Aplicada antes que a IA seja totalmente incorporada em tais serviços.

Na prática profissional de analistas do comportamento, o uso de IA requer diretrizes técnicas e éticas, entre as quais o seguimento dos princípios de: beneficência e não maleficência, consentimento informado e autonomia, privacidade e confidencialidade, equidade e acessibilidade, transparência e explicabilidade e supervisão humana. A IA pode facilitar análises comportamentais, fornecer feedback sobre práticas sistemáticas aprimorando a capacitação de profissionais, e ser utilizada em pesquisas, desde que a avaliação funcional e o planejamento sejam individualizados, a supervisão de profissionais experientes faça parte da formação e educação dos profissionais, os princípios éticos sejam respeitados e que o emprego da tecnologia para o benefício coletivo seja assegurado (Queiroz & Arantes, 2025).

Para encerrar esta reflexão sobre o uso de IA para psicoterapia, nós, analistas do comportamento temos ainda muito a contribuir com a temática, seja na participação e desenvolvimento de pesquisas, no consumo de dados de investigações científicas, ou analisando e interpretando as interações entre o comportamento humano e a IA sob a ótica da Análise do Comportamento. Como bem apresentado por Guazi (2025), a aderência ao uso de IA envolve o fortalecimento da ferramenta (ao ampliarmos sua capacidade de automatizar comportamentos antes emitidos por nós) e o enfraquecimento de parte do repertório comportamental do usuário, já que “sem ocorrência comportamental, não há desenvolvimento, manutenção ou aprimoramento de comportamento”. Seria mais prudente a preservação de certos comportamentos humanos e o uso da IA direcionado enquanto assistente, como, por exemplo, na apresentação de feedbacks aos usuários diante da emissão de comportamentos, sinalizando outros comportamentos que podem ser emitidos. 

Concluo, por hora, que realizar terapia exclusivamente por IA sequer pode ser reconhecido como um comportamento de participação em um processo psicoterapêutico, visto que o indivíduo não se expõe a condições capazes de levá-lo a desenvolver um repertório que o instrumentalize a modificar contingências aversivas em vigor de forma independente, o que tem sido possível em psicoterapias como a TCR. Por outro lado, o uso ético e restrito da IA enquanto ferramenta auxiliar à psicoterapia e recurso complementar à população parece promissor diante das limitações atuais da humanidade para promover arranjos de contingências favorecedoras à saúde coletiva. 

REFERÊNCIAS

Augusto, T. (2025). Brasileiros buscam IA para fazer terapia: ‘Melhor coisa que me aconteceu’. Tilt – Conteúdo de Tecnologia do UOL. https://www.uol.com.br/tilt/noticias/redacao/2025/05/21/brasileiros-buscam-ia-para-fazer-terapia-melhor-coisa-que-me-aconteceu.htm

Bell, M. J. (2025). New AI tools for mental health research and treatment. Google, The Keyword, Technology, Health. https://blog.google/technology/health/new-mental-health-ai-tools-research-treatment/

Boaventura, A. R. (2020). A invasão das Redes Sociais Virtuais em nossas vidas – Uma reflexão sobre o filme “O Dilema das Redes”, baseada na Terapia de Aceitação e Compromisso. Portal Comporte-se. https://comportese.com/2020/11/04/a-invasao-das-redes-sociais-virtuais-em-nossas-vidas-uma-reflexao-sobre-o-filme-o-dilema-das-redes-baseada-na-terapia-de-aceitacao-e-compromisso/

Conselho Federal de Psicologia (2024). CFP realiza encontro para debater os impactos da Inteligência Artificial no exercício profissional da Psicologia. Notícias. https://site.cfp.org.br/cfp-realiza-encontro-para-debater-os-impactos-da-inteligencia-artificial-no-exercicio-profissional-da-psicologia/

Conselho Federal de Psicologia (2025). CFP lança posicionamento sobre uso da Inteligência Artificial no contexto das práticas psicológicas. Instagram, @conselhofederaldepsicologia. https://www.instagram.com/p/DL0KDzuMROF/?hl=en&img_index=1

Cox, D. J., & Jennings, A. M. (2023). The promises and possibilities of artificial intelligence in the delivery of behavior analytic services. Behavior Analysis in Practice, 17(1), 123–136. https://pmc.ncbi.nlm.nih.gov/articles/PMC10890993

Doan, T., Sullivan, B., Koerber, J., Hickok, K., & Soares, N. (2024). Perceptions of machine learning among therapists practicing Applied Behavior Analysis: A national survey. Behavior Analysis in Practice, 17(1), 1147–1159. https://pmc.ncbi.nlm.nih.gov/articles/PMC11707160/

Fonseca, S. A. (2025). A Inteligência Artificial pode ser inserida na prestação de serviços em ABA? Blog do IBAC. https://ibac.com.br/a-inteligencia-artificial-pode-ser-inserida-na-prestacao-de-servicos-em-aba/

Google (2025). Google for Health. https://health.google/consumers/search/

Guazi, T. S. (2025). IA e comportamento autônomo: quando depender das coisas não é autonomia? ABPMC, Boletim Contexto. https://boletimcontexto.wordpress.com/2025/06/30/artigo-ia-e-comportamento-autonomo-quando-depender-das-coisas-nao-e-autonomia/

Guilhardi, H. J. (1995). Aspectos éticos e técnicos da prática psicoterápica. Mesa redonda do evento Psicologia Clínica em Debate. CRP/06.

Guilhardi, H. J. (2001a). A resistência do cliente a mudanças. Em H. J. Guilhardi (Org.), Sobre Comportamento e Cognição. Vol. 9. Campinas: Esetec. 

Guilhardi, H. J. (2001b). Com que contingências o terapeuta trabalha em sua atuação clínica? Em R. A. Banaco (Org.), Sobre Comportamento e Cognição – aspectos teóricos, metodológicos e de formação em Análise do Comportamento e Terapia Cognitivista. Vol. 1. Ed. ARBytes: São Paulo.

Guilhardi, H. J. (2004a). Terapia por Contingências de Reforçamento. Em C. N. de A. & H. J. Guilhardi (Orgs.). Terapia Comportamental e Cognitivo-comportamental – Práticas clínicas. São Paulo: Roca. https://itcrcampinas.com.br/pdf/helio/Terapia_reforcamento.pdf

Guilhardi, H. J. (2004b). Controle Coercitivo e Ansiedade – Um caso de “transtorno de pânico” tratado pela Terapia por Contingências de Reforçamento (TCR). Em M. Z. S. Brandão et al. (Orgs.), Sobre Comportamento e Cognição, 13. Cap. 22. ESETec Editores Associados.

Guilhardi, H. J. (2020). Como entendo comportamentos clínicos de terceiro nível de seleção. Instituto de Terapia por Contingências de Reforçamento.

Guilhardi, H. J. (2024). Comportamentos do psicoterapeuta: TCR – Terapia por Contingências de Reforçamento (1ª ed.). Campinas, SP: Editora do Autor.

Honorato, L. (2024). ‘Como uma pessoa que se importa’: podemos contar com IA para saúde mental? UOL. Viva Bem. https://www.uol.com.br/vivabem/noticias/redacao/2024/11/18/inteligencia-artificial-saude-mental.htm

Jennings, A.M., & Cox, D. J. (2023). Starting the conversation around the ethical use of Artificial Intelligence in Applied Behavior Analysis. Behavior Analysis in Practice, 17(1), 107-122. https://pmc.ncbi.nlm.nih.gov/articles/PMC10891004/

Junior, S. A. N. M.; Aguiar, C. L. de; Cunha, L. K. Silva da; & Brustolin, J. C. R. (2024). A interação homem-máquina na psicoterapia: Uma revisão sistemática sobre o uso de inteligências artificiais no contexto da saúde mental. PROMETEICA – Revista de Filosofia y Ciencias, 29, 335-347. https://doi.org/10.34024/prometeica.2024.29.16268   

Melis, P.;  Perra, A.; Nardi, A. E.; Zreik, T.;  Preti, A.; & Carta, M. G. (2025). The quality of information on anxiety-related websites: A systematic search about the most online item searched after Covid-19 pandemics. Journal of Psychiatric Research, 181, 144-150. https://doi.org/10.1016/j.jpsychires.2024.11.049.

Microsoft. (2025, julho 25). Imagem gerada por Copilot, IA da Microsoft. Comunicação pessoal.

Microsoft. (2025, julho 25). Resposta gerada por Copilot, IA da Microsoft. Comunicação pessoal.

OMS (2025a). Mental Health. Impact. https://www.who.int/health-topics/mental-health#tab=tab_2

OMS (2025b). Anxiety disorders. https://www.who.int/news-room/fact-sheets/detail/anxiety-disorders#:%7E:text=An%20estimated%204%25%20of%20the,all%20mental%20disorders%20(1)

Queiroz, L. & Arantes, A. (2025). IA na AC… Pode? ABPMC. https://drive.google.com/file/d/1y77GzE3FMYN5VYAVu6GXAtYeeCRNG6EP/view

Sahakian, B. J. & Langley, C. (2025). Anxiety is the most common mental health problem – here’s how tech could help manage it. The Conversation – Academic rigour, journalistic flair. https://theconversation.com/anxiety-is-the-most-common-mental-health-problem-heres-how-tech-could-help-manage-it-258116

Serena Tecnologia (2024). Sua terapeuta IA no WhatsApp. https://www.serenaapp.com/

Talk Inc (2024). Inteligência Artificial na vida real. https://talkdigital.co/assets/pesquisas/IA-na-Vida-Real-TALK-Report.pdf 

Tidy, J. (2024). No divã com IA: os jovens que fazem terapia com bots de inteligência artificial. BBC News Brasil. https://www.bbc.com/portuguese/articles/c8025nkdjd3o

Zao-Sanders, M. (2025a). How people are really using Gen AI in 2025. Harvard Business Review. Generative AI. https://hbr.org/2025/04/how-people-are-really-using-gen-ai-in-2025

Zao-Sanders, M. (2025b). How people are really using Generative AI now. Filtered. https://learn.filtered.com/hubfs/The%202025%20Top-100%20Gen%20AI%20Use%20Case%20Report.pdf

5 1 vote
Classificação do artigo
Avatar photo

Escrito por Nancy Capretz Batista da Silva

Psicóloga clínica (CRP 05/54348) e supervisora em psicoterapia comportamental e em cursos de especialização, atua em atendimentos psicoterapêuticos a adultos e jovens, incluindo pessoas neurodivergentes. Especialista (2020) em Psicologia Clínica Comportamental (Terapia por Contingências de Reforçamento) pelo Instituto de Terapia por Contingências de Reforçamento (ITCR - Campinas). Psicóloga (2004), Mestre (2007) e Doutora (2011) em Educação Especial pela Universidade Federal de São Carlos - UFSCar, com Doutorado Sanduíche no Exterior-SWE (CNPq) na RMIT - Melbourne/Austrália (2010). Obteve apoio para pesquisa e ensino das agências de fomento FAPESP, CAPES, CNPq, ProEx - UFSCar, ProGrad - UFSCar e SECADI - MEC. Coordenou e foi tutora em cursos de pós EAD. Foi professora no curso de graduação em Psicologia da UNIP (Sorocaba). Conteudista de materiais e professora convidada de cursos diversos, além de revisora de obras e parecerista de periódicos e eventos científicos. E-mail: dra.nancycapretz@gmail.com.

Análise do Comportamento Aplicada e Disciplina Positiva: Um Diálogo Possível

O impacto da cultura da produtividade na saúde mental de mulheres psicólogas