* Texto baseado em um trecho da aula, ministrada pelo autor, do curso de Formação em Terapia Baseada em Processos da Ello+
Você já deve ter ouvido falar da prática baseada em evidências em psicologia (PBEP). Esse paradigma proposto pela American Psychological Association (APA, 2006), à primeira vista, se mostra extremamente intuitivo e coerente com um bom trabalho terapêutico: usar as melhores evidências disponíveis, pautadas na expertise clínica e respeitando as idiossincrasias de cada paciente. Porém, surgem alguns problemas quando pensamos no que seriam as “melhores evidências disponíveis” e como elas são produzidas e implementadas para nossos clientes. Na parte 1 deste texto, quero abordar um pouco sobre quais desafios terapeutas podem vivenciar quando tentam se alicerçar sobre o paradigma da PBEP proposto pela APA. E de quebra, você ainda vai aprender uma receita de bolo. Vamos lá, então?
O que são evidências
Um bom ponto de partida é entendermos o que seriam as tais melhores evidências disponíveis. Segundo a APA (2006), elas são os resultados de estudos que evidenciem que um certo tratamento apresenta: eficácia e utilidade clínica. Essas são as duas dimensões de avaliação das melhores evidências disponíveis. Eficácia se refere à capacidade de um tratamento levar a certos resultados para uma demanda. Tratamentos eficazes são comumente chamados de tratamentos empiricamente sustentados (TES). Você já deve ter se deparado com eles quando te dizem que: DBT é o “padrão-ouro” para Borderline ou Ativação Comportamental para Depressão, por exemplo. Contudo, não é só de eficácia que vivem as evidências! A utilidade clínica é outra dimensão importante; ela se refere à aplicabilidade, viabilidade e custo-benefício de um tratamento quando aplicado para populações específicas em um contexto específico.
Em um primeiro momento, pode ser um pouco difícil entender como essas duas dimensões funcionam e se integram na nossa prática clínica diária. Mas, vamos pensar assim: usar as melhores evidências disponíveis é uma questão de fazer perguntas que possam nos levar a certas respostas específicas. Quando estamos falando de eficácia de tratamento, por exemplo, estamos tentando, a partir das evidências, responder à seguinte pergunta: “Qual tratamento funciona para esse problema em específico?”. Já quando estamos falando de utilidade clínica, estamos tentando, a partir das evidências, responder à pergunta: “Esse tratamento, que funciona para essa demanda, é seguro, tem um bom custo-benefício, é possível de ser aplicado e se adéqua bem à população com a qual eu estou trabalhando?”. Dessa forma, utilizar as melhores evidências disponíveis seria responder a essas duas perguntas. Ou se preferir, à pergunta formulada por Paul (1969, p.44): “Qual tratamento, por quem, é mais eficaz para esse indivíduo com esse problema específico, em que conjunto de circunstâncias e como isso ocorre?”. Por fim, não adianta apenas usar as melhores evidências disponíveis para se fazer PBEP, é preciso que se consiga, a partir da expertise clínica, utilizá-las de uma forma que se adeque às particularidades do cliente.
Para produzirmos evidências de eficácia e utilidade clínica, devemos submeter os tratamentos que desejamos testar a uma série de estudos. Em especial, quando falamos de eficácia, precisamos que os tratamentos estudados sejam entendidos como uma variável independente (VI) que seja capaz de alterar uma variável dependente (VD). E para que isso seja possível, temos que delimitar muito bem qual é o tratamento que está sendo testado (Chambless & Ollendick, 2001; Horner & Kratochwill, 2012). Para fazer essa delimitação, acabamos por criar protocolos. Esses, por sua vez, apresentam as técnicas utilizadas, descrevem a etiologia e/ou os métodos de avaliação necessários para compreender os transtornos em questão, explicam a estrutura das sessões e fornecem exemplos concretos de como cada técnica é utilizada (Areán & Kraemer, 2013). Protocolos utilizados em estudos de eficácia se assemelham a receitas culinárias, contendo um passo-a-passo do desenvolvimento do tratamento (Koerner, 2018). E é aqui que as coisas começam a ficar problemáticas quando falamos da PBEP. Para compreendermos melhor, e mais didaticamente, as dificuldades que podem existir quando nós, terapeutas, temos que usar as melhores evidências disponíveis na nossa prática diária, gostaria de fazer um experimento mental, podemos chamá-lo de “Experimento do Bolo Veludo Vermelho”.
Vamos fazer um bolo?
Imagine que você irá receber a pessoa amada em sua casa, e ela diz que adora comer bolo. Vamos imaginar, então, que você, como um bom/boa cozinheiro(a) da PBE, e querendo impressionar com seus dotes culinários, decide que não irá apenas fazer um bolo. Você irá fazer o bolo com as melhores evidências disponíveis de deliciosidade! Você encontra, depois de muita pesquisa, uma receita de bolo red velvet (veludo vermelho) que foi amplamente testada por vários cozinheiros, apresenta bons resultados em revisões sistemáticas com metanálises, que apontam, inequivocamente que essa receita (VI) é capaz de produzir muito mais deliciosidade (VD), em participantes que a provaram, quando comparada aos participantes do grupo controle (que provaram outras receitas). Essa receita, para que fosse bem testada, precisou ser padronizada em um protocolo e aqui está ele: (Leia a receita com atenção, isso vai ser importante para o nosso exemplo.)
Ao olhar para essa receita, alguns problemas começam a aparecer. O primeiro deles: O que carambolas é buttermilk? Esse é um ingrediente muito comum nos EUA — onde a receita foi desenvolvida — porém, aqui no Brasil, não é muito fácil de encontrar. “Talvez dê pra substituir por leite?” Você se questiona. Mas, como a receita originalmente testada não usa esse ingrediente, você incorreria no risco de estragar toda a massa. No protocolo, também, não há nenhuma prescrição de adaptações culturais. As coisas ficam piores ainda, quando a pessoa amada te manda uma mensagem dizendo que ela é celíaca (não pode comer glúten) e vegana (não come alimentos de origem animal). Dessa forma, farinha de trigo, ovos e cream cheese, já não podem ser usados. Novamente, você pensa em substituições de ingredientes, mas você corre o risco de terminar com um bolo que não se assemelha em nada ao testado nas pesquisas e que pode até virar uma tremenda gororoba.
Vamos deixar o experimento mental de lado, por alguns instantes, e pensar o quanto esse exemplo pode ser analogamente problemático na nossa prática em PBEP. Muitas vezes, nos deparamos com tratamentos empiricamente sustentados que não se encaixam no contexto exato vivenciado pelos nossos clientes. Utilizar um TES, pura e simplesmente, como é descrito em seu protocolo, seria o mesmo que empurrar goela a baixo um bolo feito com ovos e leite para um vegano. Modificar um protocolo, usando sua expertise clínica, contudo, pode ser uma alternativa. Mas essas modificações também precisam ser testadas por mais pesquisas de eficácia, já que a variável independente, que foi testada originalmente, seria modificada. Sem contar que a expertise clínica, normalmente é falha (Kahan, 2013; Heath & Heath, 2013). Dessa forma, terapeutas que utilizam tratamentos empiricamente sustentados caem em um dilema, ou: (1) seguem fielmente o protocolo testado, desrespeitando a individualidade do paciente, mas tendo certeza que o tratamento foi devidamente testado ou (2) modificam os protocolos se arriscando em relação à sua eficácia no tratamento (Koerner, 2018).
Porém, ainda há um ponto a ser considerado. Lembra que eu iniciei o texto falando que as melhores evidências disponíveis contam com duas dimensões? E uma delas é a utilidade clínica? E que a utilidade clínica se preocupa sobre como um tratamento se adéqua a certos contextos e populações? Dessa forma, deve haver uma receita de bolo veludo vermelho, vegano e sem glúten! Ou seja, devem haver protocolos adaptados para contextos e populações específicas para que terapeutas utilizem em sua prática. Realmente, essas adaptações existem. Temos, por exemplo: a Terapia Cognitivo-Comportamental para Depressão (Beck et al., 1979) e sua adaptação para pessoas com diabetes (Safren et al., 2008), para idosos (Steffen et al., 2021), para adolescentes porto-riquenhos (Roselló & Bernal, 2007), para militares e veteranos de guerra (Wenzel et al., 2011) etc. Veja quantas adaptações possíveis! Porém, o que parece uma boa solução pode gerar mais problemas ainda. Se retornarmos ao experimento mental do bolo veludo vermelho, poderíamos pensar que para cada tipo de pessoa, com as suas particularidades, teríamos que desenvolver receitas ligeiramente diferentes entre si. Todas essas receitas teriam que ser testadas uma a uma e, igualmente à TCC para a depressão, teríamos várias receitas diferentes: bolo veludo vermelho, bolo veludo vermelho para veganos, bolo veludo vermelho para intolerantes à lactose, bolo veludo vermelho para celíacos, bolo veludo vermelho para… etc. Na clínica e na pesquisa, algo parecido ocorre. Os terapeutas comprometidos com a PBEP têm que aprender uma infinidade de tratamentos, muitas vezes, com técnicas e bases teóricas distintas (TCC, MBCT, DBT, ACT…) e pesquisadores precisam realizar estudos e mais estudos para todas as combinações de comorbidades e populações que possam existir. Isso é extremamente contraprodutivo (Hofmann, Hayes & Lorscheid, 2021). Esse fato, aliás, tem feito com que importantes pesquisadores e terapeutas comprometidos com a PBEP repensem como as melhores evidências são ensinadas, desenvolvidas e aplicadas (Keplac et al., 2012).
Tem gosto pra tudo…
Mas os problemas não param por aí. Não há garantias que um tratamento, mesmo que adaptado culturalmente, para uma certa população, vá funcionar da forma esperada na vida real (Morgenstern & McKay, 2007; Garfield, 1996). Já que, se não bastasse a alta padronização das variáveis independentes na forma de protocolos, ainda há, também, uma alta padronização das amostras presentes em nossos estudos, fazendo com que participantes de pesquisas de eficácia não representem muito bem as populações às quais deveriam representar (Havik & VandenBos, 1996). Somado a isso, costumamos, em PBEP, usar delineamentos que avaliam como a média de um grupo variou após o tratamento, desconsiderando as características individuais dos participantes (Zettle, 2020).
No nosso experimento mental, seria o equivalente a delimitarmos dois grupos de pessoas de forma bem específica, tentando forçar o máximo de homogeneidade possível dentro deles, algo que é incoerente com a vida real. Ora! Diferentes pessoas têm diferentes gostos por diferentes tipos de bolo. O primeiro grupo (experimental) iria receber a receita que está sendo testada, o outro grupo (controle) receberia outra receita de um bolo genérico. Avaliaríamos, então, como os participantes — em média — acharam deliciosa (ou não), essas receitas. E usando métodos estatísticos, avaliaríamos o quão grande é a diferença da deliciosidade atribuída entre esses dois grupos. Contudo, a comparação da média entre grupos, nem sempre consegue refletir os gostos particulares de cada individuo. Talvez, alguns participantes do grupo experimental achassem o bolo enjoativo demais, ou talvez meio sem graça. Mas no final do estudo, quando estabelecida a média desse grupo, ela foi muito superior ao grupo controle. Perceba, que a partir desse raciocínio, podemos dizer que, na média, a receita de bolo veludo vermelho é deliciosa, mas não há garantias que todas as pessoas que provarem, na vida real, acharão o mesmo. Quando falamos de seres humanos, há gosto pra tudo. Exceções são a regra!
Nesse ponto do texto, você pode estar se perguntando se deveríamos parar de praticar a PBEP, ou deve estar pensando em possíveis soluções para esses problemas. Bem, na próxima parte desse texto, eu explico como a Terapia Baseada em Processos proposta por Hayes e Hofmann (2018; 2020) pode ser uma alternativa adocicada para esses amargos problemas, ao repensarem como os tratamentos são desenvolvidos e implementados. Então fique atento(a) para parte 2, logo ela é publicada. Ah! E vai passando um cafézinho, porque vai ter bolo também!
Referências
American Psychological Association (2006). Evidence-based practice in psychology: APA presidential task force on evidence-based practice. American Psychologist, 61, 271-285.
Areán, P. A. & Kraemer, H. C. (2013). High quality psychotherapy research: From conception to piloting to national trials. Oxford University Press.
Beck, A. T., Rush, A. J., Shaw, B., & Emery, G. (1979) Cognitive therapy for depression. Guilford Press.
Chambless, D. & Ollendick, T. (2001). Empirically supported psychological interventions: Controversies and evidence. Annual Review of Psychology, 52, 685-716.
Garfield, S. L. (1996). Some problems associated with “validated” forms of psychotherapy. Clinical Psychology: Science and Practice, 3, 218-229.
Havik, O. E., & VandenBos, G. R. (1996). Limitations of manualized psychotherapy for everyday clinical practice. Clinical Psychology: Science and Practice, 3(3), 264–267. https://doi.org/10.1111/j.1468-2850.1996.tb00081.x
Hayes, S. C., & Hofmann, S. G. (2018). Process-based CBT: The science and core clinical competencies of cognitive behavioral therapy. New Harbinger Publications.
Hayes, S. C., & Hofmann, S. G. (Eds.). (2020). Beyond the DSM: Toward a process-based alternative for diagnosis and mental health treatment. New Harbinger Publications.
Heath, C., & Heath, D. (2013). Decisive: How to make better choices in life and work. New York: Random House.
Hofmann, S. G., Hayes, S. C., & Lorscheid, D. N. (2021). Learning process-based therapy: A skills training manual for targeting the core processes of psychological change in clinical practice. New Harbinger Publications.
Horner, R. H. & Kratochwill, T. R. (2012). Synthesizing single-case research to identify evidence- based practices: Some brief reflections. Journal of Behavioral Education, 21, 266- 272. https://doi.org/10.1007/s10864-012-9152-2
Kahan, D. M. (2013b). “Integrated and reciprocal”: Dual process reasoning and science communication part 2. July 24. http://www.culturalcognition.net/blog/2013/7/24/integrated- reciprocal-dual-process-reasoning-and-science-com.html.
Klepac, R. K., Ronan, G. F., Andrasik, F., Arnold, K. D., Belar, C. D., Berry, S. L., et al. (2012). Guidelines for cognitive behavioral training within doctoral psychology programs in the United States: Report of the Inter-Organizational Task Force on Cognitive and Behavioral Psychology Doctoral Education. Behavior Therapy, 43 (4), 687–697.
Koerner, K. (2018). The Science in Pratice. In Hayes, S. C., & Hofmann, S. G. Process-based CBT: The science and core clinical competencies of cognitive behavioral therapy (pp. 58-75). New Harbinger Publications.
Paul, G. L. (1969). Behavior modification research: design and tactics. In C. M. Franks (Ed.), Behavior therapy: Appraisal and status (pp. 29-62). McGraw-Hill.
Rosselló, J., & Bernal, G. (2007). Treatment Manual for Cognitive Behavioral Therapy for Depression, adaptation for Puerto Rican Adolescents (Therapist’s Manual).
Safren, S. A., Jeffrey S. G., & Nafisseh S. (2007). Coping with Chronic Illness: A Cognitive- Behavioral Therapy Approach for Adherence and Depression, Therapist Guide, Treatments That Work. Oxford Academic. https://doi.org/10.1093/med:psych/9780195315165.001.0001
Steffen, A. M., Dick-Siskin, L. P., Choryan Bilbrey, A., Thompson, L. W., & Gallagher-Thompson, D. (2021). Treating Later-Life Depression: A Cognitive-Behavioral Therapy Approach, Workbook (2º ed). Oxford University PressNew York. https://doi.org/10.1093/med- psych/9780190068394.001.0001
Morgenstern, J., & McKay, J. R. (2007). Rethinking the paradigms that inform behavioral treatment research for substance use disorders. Addiction, 102 (9), 1377–1389.
Wenzel, A., Brown, G. K., & Karlin, B. E. (2011). Cognitive Behavioral Therapy for Depression in Veterans and Military Servicemembers: Therapist Manual. Washington, DC: U.S. Department of Veterans Affairs
Zettle, R. D. (2020). Treatment manuals, single-subject designs, and evidence-based practice: A clinical behavior analytic perspective. The Psychological Record, 70, 649-658.