Sumário: a partir de um texto do filósofo libertário Michael Huemer, analisamos que tipo heurísticas devemos usar / evitar em decisões sociais com grande incerteza.
No Elogio da Passividade (aqui para o áudiotexto), Huemer conta a história da morte de George Washington: os médicos, desconhecendo como tratar a doença (em razão do atraso científico da época), apenas aumentaram sua agonia com tratamentos ineficazes (como a sangria). Só que isso fere o próprio juramento de Hipócrates de não fazer mal. O exemplo fornece uma lição para a teoria da ação: ao agir sob incerteza — por desconhecer qual a melhor coisa a fazer, ou quais as consequências da ação — é improvável atingir os fins desejados, e é possível atingir fins indesejados. Huemer alega que as ciências sociais, hoje, estão num estado análogo ao da medicina do século XVIII; por isso, recomenda a passividade em decisões políticas.
Fim aqui é a consequência desejada da ação — a qual visa a aumentar a probabilidade de que o resultado ocorra. Claro, frequentemente, não atingimos os fins de nossas ações; mas, nesses casos, costumamos dizer que erramos em nossa previsão do que aconteceria a partir de nossa ação — estávamos enganados, ou alguma coisa saiu do controle, etc. O ponto é que é difícil conceber um caso em que o agente racional: a) saiba que o fim que ele almeja não se seguirá à sua ação, ou b) em que ele não acredita que o fim se seguirá, ou c) acredita que um fim que ele não deseja se seguirá. Isso vale mesmo quando uma ação envolve riscos, como em apostas; quando um sujeito joga na loteria, ele não precisa acreditar que vai ganhar — todo mundo sabe que é altamente improvável ser o vencedor. Mas as pessoas consideram que o volume do prêmio, de longe, compensa a probabilidade de perder; podemos considerar que a finalidade da ação de comprar um bilhete de loteria não é ficar milionário, mas ter uma chance de ficar milionário.
Podemos resumir o argumento de Huemer:
1) Quando agimos sob ignorância — seja por não saber qual a melhor coisa a fazer, seja por não saber quais as consequências de nossa ação — é improvável que atinjamos fins desejados, e é possível que atinjamos fins indesejados.
2) Por uma série de razões (vamos chamar de o problema do conhecimento) nosso grau de ignorância e incerteza sobre questões sociais (em especial as complexas) é alto — de modo que, quando agimos com relação a essas questões, agimos sob ignorância. Huemer diz que o conhecimento no âmbito social é muito difícil.
3) Huemer apresenta um conjunto de motivos (problema normativo) pelos quais, para o Estado, é melhor deixar algo ruim acontecer por não agir ativamente que causar algo ruim por intervir ativamente. Afinal: a) o Estado age por meio de coerção (ameaça de uso da força) — e há uma presunção moral contra a coerção; b) quando intervimos ativamente, tornamo-nos responsáveis pelas consequências de nossos atos; c) a probabilidade de prejudicar um sistema complexo (como o corpo humano ou a sociedade) quando fazemos uma intervenção sob incerteza é bem maior que a de ajudar.
Conclusão pela passividade: em questões sociais, é melhor não agir do que agir; portanto, não devemos votar, nem tentar resolver problemas sociais complexos, nem “militar” ou lutar por aquilo em que acreditamos; isto porque, em questões sociais, frequentemente estamos em situação de ignorância — e as consequências das políticas adotadas podem ser o contrário do que pretendíamos. Um exemplo é o programa americano Scared Straight, em que adolescentes infratores foram levados a conhecer penitenciárias a fim de os assustar e reabilitar; embora inicialmente considerado um sucesso, ele foi posteriormente contestado, uma vez que a diminuição da taxa de cometimento de infrações foi maior entre indivíduos que não participaram do programa do que entre os que participaram — i.e., um jovem tinha mais chance de infringir a lei no futuro se participasse do programa do que se não participasse.
A boa notícia é que, ainda que o argumento de Huemer tenha por alvo várias decisões sociais, ele não se aplica a muitas organizações — em especial, às recomendações do altruísmo eficaz. O próprio Huemer menciona de forma positiva a Against Malaria Foundation (uma das organizações mais recomendadas do movimento) como uma organização que, seguramente, salva vidas distribuindo redes contra mosquitos para prevenir malária — sem que ninguém conteste isso.
Primeiro, a última premissa do argumento (o problema normativo) não se aplica aqui; ao decidir sobre doar para instituições recomendadas na redução da pobreza, ou de doenças negligenciáveis, ou de riscos globais, não podemos dizer que, em situação de incerteza, é melhor não agir do que agir, já que: a) ao contrário do Estado, elas não agem de forma coercitiva; b) dificilmente você pode ser considerado responsável por efeitos colaterais nessa área (embora essas instituições busquem evitar esses efeitos); e c) as intervenções promovidas pelo AE tendem a favorecer incrementos marginais e sob observação constante, justamente para evitar consequências dramáticas em sistemas complexos (p. ex.: distribuir redes ao invés de extinguir o mosquito com pesticidas ou engenharia genética).
Em segundo lugar, o altruísmo eficaz busca ativamente reduzir o ‘problema do conhecimento’, estimulando intervenções baseadas em evidências e uma cultura de discussões racionais. Na realidade, um dos principais desafios que esse movimento busca resolver é encontrar maneiras confiáveis de medir e comparar o impacto de organizações e políticas públicas.
Mas voltemos ao argumento de Huemer: primeiro, ele destaca a ignorância sobre o domínio do conhecimento. A maioria das pessoas têm convicções fortes sobre como o Estado deveria ser organizado e como o governo deveria agir — mesmo desconhecendo coisas básicas como a organização política constitucional, os direitos e garantias individuais, a identidade dos indivíduos em cargos-chave (Parlamentares, Ministros, Secretários e dirigentes de órgãos), conceitos econômicos fundamentais (inflação, taxa de juros, renda per capita, protecionismo, risco moral)… Existe um viés cognitivo muito conhecido que explica isso, o chamado efeito Dunning-Krueger: em geral, quanto mais ignorante alguém é sobre um assunto, mais essa pessoa tende a superestimar sua competência. — o que já discutimos em outro post.
Esse problema poderia ser mitigado se pelo menos consultássemos especialistas; afinal, mesmo tendo opiniões pessoais sobre saúde ou direito, consultamos um médico e um advogado antes de tomar um remédio ou processar alguém. Mas em problemas sociais, negligenciamos especialistas sistematicamente. Por quê? Uma das explicações é que, dada a complexidade das questões sociais, sua constante mudança e a dificuldade de testar hipóteses, mesmo experts frequentemente erram, o que diminui nossa confiança neles. Como mostra Phillip Tetlock em Superforecasting, o desempenho de especialistas em previsões testáveis é baixo.
Então, ao invés de tentarmos resolver o problema, buscamos um bode expiatório a quem responsabilizar — como resumido por Zach Weinersmith do SMBC-comics: Superman busca o responsável pelo problema da criminalidade e descobre que tentar entender isso é muito complicado — é mais fácil socar o agressor identificável.
Outra questão que agrava o problema do conhecimento é que questões sociais não dizem respeito apenas a previsões sobre o mundo, mas também a avaliações — às nossas opiniões sobre o que é bom ou ruim, ou sobre como o mundo deveria ser. Só que essas questões, na realidade, não são menos difíceis de investigar que questões empíricas; talvez sejam piores, pois há muito desacordo nessa área, mesmo entre pessoas inteligentes, bem informadas e de boa-fé, e poucos métodos confiáveis sobre como resolvê-lo. Se você se interessa por esse tema, vai apreciar os complexos debates em torno da noção de cluelessness e decision paralysis.
O que explica esses problemas do conhecimento e impede o progresso nessa área é que somos mais sensíveis a um viés confirmatório que torna psicologicamente difícil revisar as próprias crenças: não conseguimos separar a reflexão a respeito de problemas sociais de nossas emoções, sentimentos, identidades ou ideologias. É por isso que frequentemente não nos damos o trabalho de adquirir informação, nem de consultar especialistas — e mesmo os especialistas relutam em atualizar suas opiniões: porque não queremos correr o risco de descobrir que elas estão erradas.
Ainda, desencorajamos as pessoas que tentam agir de modo contrário. Se você muda de opinião à luz de nova evidência, corre o risco de ser taxado de inconstante; e se questiona a opinião ou as práticas do grupo, tende a ser tachado como não-confiável e expulso dele. Para Huemer, “as evidências sugerem que a motivação das pessoas politicamente comprometidas é sobretudo o desejo de sentir que estão promovendo ideais políticos e não tanto o desejo dos próprios ideais”.
Mas, como anunciamos antes, a boa notícia é que os problemas expostos pelo argumento da passividade são mitigados dentro do altruísmo eficaz, onde há uma cultura deliberadamente voltada a evitar esses vieses. As instituições e pesquisadores são estimulados a apresentar seus argumentos e evidências de forma clara e objetiva, e a reconhecer possíveis objeções; e ao invés de desincentivar questionamentos, é comum que se ofereçam prêmios para as melhores objeções — de forma análoga a como empresas de tecnologia pagam red teams e debuggers para encontrar problemas em suas ferramentas.
Ainda, organizações encarregadas de avaliar e recomendar organizações da maneira mais objetiva possível, como a GiveWell, ocupam um papel importante, estimulando as demais organizações a mensurar seus impactos de forma mais transparente e a coletar evidências; recentemente, a Evidence Action se destacou por suspender voluntariamente seu programa No Lean Season, por concluir que ele não apresentava evidências de satisfazer seus próprios objetivos.
Isso não significa que tenhamos resolvido o “problema do conhecimento”, que essas organizações atuem num ambiente sem incerteza; mas significa que incerteza não implica passividade — que não é “mias provável fazer mal do que bem”. De fato, a página e o blog da GiveWell expõem de maneira extensiva as dificuldades encontradas em suas investigações — p. ex., como agregar diferentes dados e análises estatísticas distintas, ou como adotar métricas para comparar desenvolvimento econômico, anos de vida ajustados por qualidade de vida, ou por deficiência… E ainda, como comparar isso com outras causas muito diferentes, como redução do sofrimento animal ou de riscos existenciais. Ao invés de o problema aqui ser “evitar o risco de fazer o mal”, o que temos é um problema de custo de oportunidade: há muitas possibilidades de fazer o bem, e é difícil escolher a melhor — escolher como investir seus recursos. Pelo menos, numa cultura que estimule uma discussão racional e desinteressada, podemos ter esperança de fazer algum progresso.