Sugerimos ler antes O que devemos ao Futuro?

Se você tiver uma pergunta sobre o longotermismo, talvez possa achar uma resposta nesta compilação de perguntas frequentes. Selecione uma das perguntas no índice acima e vá diretamente a ela.

Incluímos algumas respostas breves às objeções teóricas e práticas mais comuns ao longotermismo. Algumas objeções podem se basear em equívocos compreensíveis; outras levantam questões importantes e difíceis para os longotermistas. Você não deve ficar com a impressão de que todas as perguntas têm respostas decisivas e consensuadas. Na verdade, os longotermistas continuam discutindo e discordando sobre muitas delas.

Se alguma pergunta sua não estiver respondida abaixo, fique à vontade para entrar em contato conosco. Você também pode fazer perguntas a esse respeito a alguns membros da comunidade do altruísmo eficaz, postando a sua pergunta no Fórum do Altruísmo Eficaz.

É realmente possível influenciar positivamente o futuro de longo prazo?

É possível influenciar o futuro de modos triviais: você pode gravar seu nome numa pedra, e pode ser que ele ainda esteja lá daqui a milhares de anos. Mas essa não é a questão, de fato; pois assim você não estaria influenciando o futuro de forma positiva e importante. Em vez disso, nossas ações poderiam acabar influenciando o futuro de longo prazo de modos mais relevantes — mas de maneiras que não previmos, ou que eram impossíveis de prever. Logo, também é essencial que possamos efetivamente prever maneiras de influenciar o futuro positivamente. A questão importante, portanto, é: será possível influenciar o futuro de longo prazo positiva e previsivelmente. É adequado nos perguntarmos se há mesmo qualquer coisa que possamos fazer no presente e que possivelmente venha a fazer uma diferença significativamente grande no futuro de longo prazo?

No entanto, existe um argumento convincente para pensarmos que podemos fazer coisas hoje para influenciar um futuro bem distante.

Mitigar os piores efeitos das mudanças climáticas funciona como ‘validação do conceito’. Além dos danos causados pela negligência às mudanças climáticas no curto prazo, sabemos que o dióxido de carbono pode permanecer na atmosfera terrestre por dezenas de milhares de anos. Sabemos também que há maneiras de reduzir a quantidade das nossas emissões, investindo em tecnologia verde e precificando as emissões de carbono de acordo com o seu verdadeiro custo social, por exemplo. Caso tenhamos êxito em suprir as demandas de energia e eletricidade de quase todo o mundo sem consumir carbono, não há razão alguma para esperar que as gerações futuras desfaçam o nosso trabalho — nosso sucesso perduraria por um longo tempo no futuro.

Nossos esforços no presente poderiam influenciar o futuro de longo prazo de maneiras ainda mais significativas. O filósofo Toby Ord defende que este século pode trazer riscos insustentáveis e sem precedentes para todo o potencial da humanidade prosperar em um futuro distante — os chamados riscos existenciais. Mas ainda há esperança: ele argumenta que podemos escolher encerrar esse período. Por meio de ações deliberadas, poderíamos conseguir evitar uma catástrofe grande o bastante para pôr a humanidade numa trajetória muito pior, ou até provocar a sua extinção. A maioria desses riscos tem origem humana: como o risco de uma pandemia planejada muito pior do que a da COVID-19 ou de inteligências artificiais irreversivelmente poderosas que não venhamos a alinhar com os valores certos. Mas, visto que os maiores riscos são de origem humana, certamente também podemos reduzi-los. É difícil imaginar um exemplo mais claro de influência positiva no futuro de longo prazo do que evitar uma catástrofe existencial.

Para mais informações, veja a seção introdutória deste site intitulada ‘Nossas ações poderiam influenciar o futuro de longo prazo’.

Será que uma boa parte do longotermismo não é óbvia? Por que só agora as pessoas estão começando a se dar conta de tudo isso?

Algumas características da visão de mundo longotermista não são especialmente novas, nem sofisticadas, nem difíceis de entender. Por exemplo, não é controverso sugerir que pelo menos algumas pessoas futuras são importantes: futuros pais estão fazendo algo evidentemente sensato preparando-se para a chegada da criança que eles planejam ter, de forma a garantir que ela tenha uma vida boa. Mas também não é muito controverso dizer que as pessoas são importantes ainda que não estejam intimamente relacionadas a você, de modo que essa preocupação com a futura família poderia ser generalizada. 

Isso levanta a questão sobre por que o longotermismo não é muito mais aceito e posto em prática; e por que só agora ele está sendo levado a sério como um projeto intelectual.

Uma resposta para isso é que um panorama completo do longotermismo na realidade exigiria uma série de descobertas surpreendentemente recentes. Por exemplo, apenas por meio de descobertas na geologia e na cosmologia é que começamos a compreender plenamente quanto tempo ainda nos resta na Terra e fora dela. Apenas recentemente começamos a entender exatamente por quanto tempo os efeitos das nossas atividades podem se prolongar: foi no fim do século XX que os cientistas climáticos começaram a chegar a um consenso de que os gases do efeito estufa produzidos por seres humanos podem permanecer na atmosfera por dezenas de milhares de anos.

Além disso, embora faça sentido que as pessoas futuras obviamente sejam importantes, foi necessário um trabalho conceitual desbravador para entendermos que tipos de obrigações éticas podemos assumir com as pessoas futuras. Antes que a América do Norte fosse colonizada, os iroqueses desenvolveram e ensinaram um ‘princípio de sétima geração’ — de que as decisões tomadas hoje devem beneficiar sete gerações no futuro. Conceitos semelhantes foram inventados no pensamento contemporâneo — como em Reasons and Persons de Derek Parfit e O Destino da Terra de  Jonathan Schell. Como descreve o historiador Thomas Moynihan, as perspectivas históricas sobre o futuro da humanidade quase nunca deixaram espaço para uma noção ‘do que está em jogo’ — para a ideia de que pode caber a nós garantir que as coisas transcorram bem. De fato, muito pouca gente sequer notou a possibilidade de que a humanidade possa se extinguir.

Além disso, durante a maior parte da história simplesmente não estava claro como poderíamos influenciar positivamente o futuro de longo prazo, ainda que considerássemos importante fazer isso. Pode ser que só recentemente isso tenha mudado. Em primeiro lugar, agora temos tecnologias poderosas o suficiente para influenciar todo o futuro, como as armas nucleares. Em segundo lugar, progredimos nas ciências sociais e físicas, o que nos capacitou a predizer com mais precisão alguns efeitos das nossas ações no longo prazo.

Somente com a invenção das armas nucleares é que a humanidade começou a adquirir meios para destruir a si mesma. E outras tecnologias semelhantes estão a caminho, inclusive inteligências artificiais, biotecnologia avançada e geoengenharia. Garantir o desenvolvimento e o emprego seguro dessas tecnologias parece ser uma forma promissora de melhorar o futuro numa longa perspectiva temporal, principalmente reduzindo a probabilidade de uma catástrofe existencial. Logo, ainda que a importância abstrata da melhoria do futuro de longo prazo sempre tenha sido óbvia, ela começa a parecer muito mais importante em termos práticos.

Observe também que levou muito tempo para que diversos pontos de vista morais hoje considerados óbvios fossem difundidos. Por muito tempo, só uns poucos pensadores e ativistas fora da corrente social dominante se pronunciaram sobre a abolição da escravidão, defenderam o sufrágio feminino ou a ideia de que devemos tratar o animais com humanidade. Durante essas épocas, muitos dos argumentos para esses pontos de vista morais podem ter sido bem conhecidos e reconhecidos, mas mesmo eles se mantiveram pouco óbvios por muito tempo.

O longotermismo não é apenas a aplicação do utilitarismo?

Teorias éticas utilitaristas focam na geração das melhores consequências para o mundo por meio da melhoria das vidas de todos os seres sencientes. Uma característica essencial aqui é a imparcialidade: o utilitarismo sustenta que devemos ter uma consideração moral igual ao bem-estar de todos os indivíduos, independentemente de características como gênero, raça, nacionalidade ou até espécie. Em outras palavras: coisas boas e ruins, como a felicidade e o sofrimento, importam — na verdade, ela são importantes na mesma medida — independentemente de para quem ocorram.

Teorias utilitaristas também nos pedem para ser sensíveis à escala dos bons e maus resultados — por exemplo, um resultado com duas vezes mais pessoas felizes ou infelizes deve ser considerado duas vezes melhor ou pior. Isso é importante porque sabemos que é fácil sermos insensíveis à escala, de forma a podermos ser tendenciosos em relação ao tratamento de problemas especialmente grandes.

O longotermismo provavelmente decorre da maioria das versões do utilitarismo (presumindo que algumas de nossas ações possam afetar o futuro de longo prazo de modo previsível e significativo). Teorias mais imparciais como o utilitarismo naturalmente sugerem que, assim como no sentido moral não importa onde você nasceu, também não importa quando você nasceu. Logo, a ênfase na imparcialidade requer a expansão do nosso ‘círculo de preocupação’ moral de forma a incluir as gerações futuras.

Além disso, o foco na escala significa que o utilitarismo valoriza o futuro de longo prazo proporcionalmente ao seu amplo escopo e duração — valorizando plenamente os trilhões de vidas às quais pode estar destinado.

No entanto, não é preciso acreditar no utilitarismo para se convencer a respeito do longotermismo. Primeiramente, muitas outras teorias consequencialistas (teorias que avaliam o valor dos atos conforme os seus efeitos) não utilitaristas concordam sobre a importância da imparcialidade e da sensibilidade à escala: as características específicas que separam o utilitarismo de outras teorias ─ como o prioritarismo ou o igualitarismo ─ não parecem necessárias para o longotermismo.

Além disso, mesmo muitas teorias morais não consequencialistas podem concordar que influenciar positivamente o futuro de longo prazo é uma prioridade moral essencial do nosso tempo. Por exemplo, podemos encontrar motivos fundamentados no passado para proteger as gerações futuras. Ao assimilarmos o longo curso da história humana, podemos nos sentir compelidos por um tipo de dever de continuidade ou de solidariedade para com as gerações passadas. O filósofo Toby Ord diz assim:

“Visto que a flecha do tempo torna muito mais fácil ajudar as pessoas que vêm após você do que aquelas que vieram antes de você, a melhor maneira de entender a parceria das gerações pode ser assimétrica, com todos os deveres fluindo à frente no tempo — retribuindo o favor para as próximas gerações. Nessa perspectiva, nossos deveres para com as gerações futuras podem se basear no trabalho que os nossos ancestrais fizeram por nós quando éramos suas gerações futuras.

Por outro lado, por mais que haja muitas razões não consequencialistas para nos importarmos com as gerações futuras, elas podem ficar um tanto aquém da alegação de que influenciar positivamente o futuro de longo prazo é uma prioridade moral crucial do nosso tempo. É razoável que uma sensibilidade fundada em princípios em relação à escala potencial do futuro — e à influência que as nossas ações terão sobre ele — seja importante para o longotermismo.

De qualquer forma, você realmente não precisa se associar a uma teoria ética específica completamente formada para adotar a perspectiva longotermista. Obviamente, tudo bem avaliar a defesa do longotermismo segundo os seus próprios méritos, com base nos argumentos que se apoiam por si sós ou apelam a intuições razoáveis. Da mesma forma, está perfeitamente bem decidirmos nos importar com o ambientalismo sem prestar muita atenção a qual teoria moral integral nos parece mais plausível.

Mas vale a pena dar a devida atenção a esta questão: será que certos tipos de utilitarismo sugerem tipos especialmente fortes de longotermismo, principalmente o ‘utilitarismo total‘, que determina o valor dos resultados acrescentando a quantidade total do bem-estar que eles contêm? Os filósofos Hilary Greaves e William MacAskill explicam em ‘A defesa do longotermismo forte’ como versões mais fortes do longotermismo podem decorrer de versões paradigmáticas do utilitarismo total.

O longotermismo nos pede para fazer enormes sacrifícios pelo futuro? Isso não é uma exigência exagerada?

Se proteger e melhorar o futuro de longo prazo é tão importante quanto o longotermismo afirma ser, pode fazer sentido abrir mão de benefícios de curto prazo no presente por uma preocupação com as gerações futuras. Algumas pessoas discordam em não haver um limite máximo no tipo de sacrifício que o longotermismo poderia recomendar que façamos no presente.   

Em discussões teóricas, algumas questões sobre quanto uma geração realmente deve estar disposta a sacrificar pelo futuro são difíceis de responder. Versões fortes do longotermismo, de fato, podem dizer que temos obrigações morais extraordinárias de proteger o futuro, pois há muita coisa em jogo e não existe um limite do que nos pode ser exigido. Se isso é verdade, a coisa certa pode muito bem ser fazer sacrifícios, tanto no nível individual quanto no social. No entanto, o longotermismo é absolutamente compatível com limites rígidos sobre o que é aceitável exigir de qualquer geração.

Felizmente, esta discussão é em grande parte dispensável, pois o mundo atualmente quase nada gasta com tentativas diretas de proteger e melhorar o futuro de longo prazo. Claro que gastamos alguns de nossos recursos com projetos que eventualmente poderiam melhorar o futuro, como os amplos esforços para mitigar os efeitos das mudanças climáticas. Mas, em termos globais, muito poucos recursos são destinados atualmente ao projeto de pensar e agir diretamente para termos uma influência positiva no futuro de longo prazo. Assim sendo, os longotermistas podem discordar e, realmente, discordam sobre quanto de tal gasto seria ideal, enquanto todos concordam que faz sentido gastar e fazer muito mais.

Durante os anos mais recentes, praticamente US$ 200 milhões foram gastos anualmente em causas longotermistas, e cerca de US$ 20 bilhões foram alocados até o momento por filantropos envolvidos com ideias longotermistas (este post oferece um bom panorama da situação do financiamento). Isso significa que menos do que um em 100.000 (0,001%) do produto mundial bruto está intencionalmente direcionado à proteção do destino da humanidade no longo prazo  — menos da metade dos ganhos conjuntos dos atletas mais bem pagos no mundo, menos que 0,2% dos rendimentos da indústria de jogos de cassino dos EUA e menos de 5% da quantia gasta anualmente com sorvete nos EUA.

Mas também é importante ser honesto sobre onde, e em que medida, o longotermismo, aliás, pode sugerir que façamos sacrifícios no presente em prol das futuras gerações. Se você pensa que algo é uma prioridade moral crucial do nosso tempo, e que a sociedade atualmente não valoriza suficientemente a sua importância, isso deve ter algumas implicações surpreendentes sobre o modo como devemos gastar nossos recursos e alocar nosso foco. Assim sendo, o longotermismo tem algumas implicações ousadas para questões sobre como a nossa sociedade deve gastar, quais podem ser as melhores políticas e normas e como as pessoas podem fazer uma diferença positiva por meio da suas carreiras. Sob uma perspectiva dos ‘negócios como de costume’, ele pode sugerir um nível imprevisto de cautela e delonga em torno da busca de tecnologias potencialmente perigosas ou um investimento de uma quantia surpreendente em medidas para a proteção contra catástrofes cujos efeitos perduram até o futuro distante. Logo, seria um tanto desonesto dizer que o longotermismo não nos pede nada. Ele pode muito bem ser exigente nesse sentido — porém não a um nível excessivo.

Já conhecemos a ideia de que fazer sacrifícios pelos outros é em geral a coisa certa a se fazer: estaríamos preparados para arruinar sapatos caros a fim de salvar uma criança que se afoga numa lagoa ou adiar uma carreira lucrativa para ajudar a criar um filho. Claramente, algumas coisas são importantes o suficiente para exigir pelo menos algum nível de sacrifício. Se o longotermismo estiver correto, o futuro de longo prazo é importa enormemente. Portanto, se houvesse uma oportunidade de beneficiar esse futuro ao abrirmos mão de algo no curto prazo, o longotermismo poderia exigir isso de nós. Mas isso pode ser aceitável — da mesma forma como a ética de senso comum exige que entremos na lagoa para salvar a criança que se afoga, mesmo que isso signifique arruinar nossas roupas caras.

Ainda assim, há espaço para discordâncias razoáveis sobre quanto exatamente o longotermismo deveria exigir de nós, quando suas exigências conflitam com outras prioridades morais. Pense no modo como recursos filantrópicos são gastos: há muitos problemas prementes no mundo, mas os recursos são finitos. Se você pudesse decidir sobre onde esses recursos seriam alocados, teria um trabalho difícil nas mãos: de alguma forma, todo dólar redirecionado a causas longotermistas (como a biossegurança) é um dólar que poderia ser gasto na erradicação da malária, ou na melhoria do bem-estar animal. Quando escolhemos doar para uma causa, portanto, de certa forma estamos desconsiderando uma outra causa, o que poderia ser considerado um tipo de sacrifício. Você pode pensar sensatamente que o longotermismo não é o único ponto de vista moral capaz de fazer exigências sobre o modo como você gasta seu tempo e dinheiro, ou como a sociedade decide o que priorizar. Por exemplo, você poderia também pensar que tirar pessoas vivas da pobreza deveria ser uma outra prioridade vital do nosso tempo. Nesse caso, não há resposta certa sobre quanto o longotermismo deveria exigir em comparação com essa prioridade. Esta humilde compilação de perguntas frequentes estaria indo além da sua alçada se afirmasse ter a resposta definitiva para esse tipo de pergunta!

O que o longotermismo tem a ver com o altruísmo eficaz?

O altruísmo eficaz é o projeto de usar o raciocínio e evidências para descobrir maneiras de fazer progresso nos problemas mais prementes do mundo; e daí tomar atitudes, usando tempo e dinheiro de modo a realmente fazer uma diferença. Ele é um projeto tanto intelectual quanto prático. O altruísmo eficaz está tentando construir uma ampla área de pesquisa sobre a descoberta dos melhores meios de fazer o bem. Mas também está pondo em prática os resultados dessa pesquisa e tentando gerar mudanças positivas reais.

Uma grande comunidade internacional se formou em torno desse projeto. Pessoas inspiradas pelo altruísmo eficaz trabalham numa série de causas, da melhoria do bem-estar dos animais, à redução da pobreza e promoção da saúde global, até a tentativa de reduzir a probabilidade de catástrofes globais, como uma pandemia devastadora.

Muito do que agora chamamos de ‘longotermismo’ foi desenvolvido por pessoas que faziam e fazem parte da comunidade do altruísmo eficaz. Mas elas não podem reivindicar quase todo o crédito pela visão de mundo longotermista — outras pessoas já desenvolviam as ideias fundamentais muito antes de o altruísmo eficaz existir.

Tanto o longotermismo quanto o altruísmo eficaz são movimentos intelectuais: um conjunto de ideias e questões que podem motivar pesquisas transdisciplinares e instigar ações. O altruísmo eficaz tem um aspecto comunitário forte: cada vez mais pessoas no mundo inteiro se identificam com suas ideias centrais e se relacionam entre si no trabalho em equipe em busca de metas em comum. Atualmente, muitas pessoas que se associariam ao longotermismo também diriam que fazem parte da comunidade do altruísmo eficaz. Mas não precisa ser assim: por mais que seja natural enxergar o modo como um interesse no altruísmo eficaz pode levar a um foco no longotermismo em particular, nada há de inerente acerca do longotermismo que signifique que você também precisa se sentir parte do altruísmo eficaz para se importar com a ideia. Tampouco, aliás, preocupar-se com o altruísmo eficaz implica que você deva se importar com o longotermismo.

Na verdade, não está claro se o longotermismo precisa realmente ser uma ‘comunidade’ ou ser uma ‘identidade’. Muitas pessoas podem trabalhar em problemas associados ao longotermismo, mas não precisam se sentir como parte de uma grande comunidade longotermista. Com relação a isso, você poderia comparar o longotermismo a abordagens amplas na ética, como os direitos humanos; ou a paradigmas na economia, como o desenvolvimento sustentável. Pesquisadores, ativistas e elaboradores de políticas podem se importar profundamente com essas ideias, sem se considerar parte de uma única ‘comunidade’ dos direitos humanos ou do desenvolvimento sustentável.   

Portanto, você não precisa mesmo se identificar com o altruísmo eficaz para progredir na pesquisa longotermista ou para trabalhar para a melhoria do futuro distante. Na prática, muitas pessoas que trabalham em organizações longotermistas indispensáveis, na realidade, não se identificam muito com o altruísmo eficaz e, também, pertencem a todo tipo de afiliações sociais, espirituais e políticas.

Por que nos importarmos com o futuro de longo prazo se vamos entrar em extinção de qualquer forma?

Você pode pensar que a humanidade está atualmente a caminho da extinção ou de uma destruição irrecuperável num futuro não tão distante. Se isso é verdade, é improvável que o futuro de longo prazo seja relevante (visto que as pessoas não estarão lá quando ele chegar), e assim não faria muito sentido pensar que melhorá-lo deve ser uma prioridade moral. 

No entanto, essa crença por si só não seria suficiente para concluir que o longotermismo está equivocado, contanto que tenhamos algum controle sobre se vamos entrar em extinção ou não. Aliás, isso provavelmente é verdade: todos os riscos cruciais à sobrevivência da humanidade são causados por humanos, de modo que deve ser possível para os humanos mitigá-los. Portanto, de acordo com o longotermismo, a sua conclusão deveria na realidade ser que evitar a extinção deve ser uma prioridade moral, para tornar o mundo adequado para que milhares de gerações futuras prosperem.  

Para esta refutação realmente funcionar você precisaria pensar que (1) provavelmente entraremos em extinção logo e (ii) não há nada que possamos fazer a esse respeito. É muito difícil enxergar como essas duas coisas poderiam ser verdadeiras. Teoricamente, se o risco da extinção humana é alto (e o número esperado de gerações futuras é, portanto, baixo), haveria muitas coisas que poderíamos fazer para reduzir esse risco. Se, por outro lado, o risco é baixo, pode ser mais difícil baixar o risco mais ainda, mas já seria muito improvável que entrássemos em extinção logo e, assim, podemos esperar por um grande número de gerações futuras.  

Algumas pessoas podem temer que as mudanças climáticas provoquem a extinção humana nos próximos séculos. No entanto, embora as mudanças climáticas possam ter efeitos globais devastadores, uma revisão equilibrada das evidências sugere que não é muito provável a extinção humana como resultado direto das mudanças climáticas (veja aquiaqui e aqui).

Mitigar os efeitos das mudanças climáticas é claramente bastante valioso. Na realidade, isso provavelmente reduz o risco geral de extinção, pois o dano das mudanças climáticas poderia ser um ‘fator de risco’, por exemplo, ao aumentar a probabilidade de conflitos internacionais. Mas parece que nem as mudanças climáticas, nem qualquer outra tendência previsível tem uma grande possibilidade de provocar a extinção humana em qualquer momento próximo no futuro. Não estamos inevitavelmente arruinados a ponto de desistir da esperança de sobreviver, e até de evoluir, por muito tempo.

Por que focar nos seres humanos? E quanto aos animais, ou à natureza?

O longotermismo dedica um foco especial à humanidade — fala sobre o potencial humano e pessoas futuras. Mas os humanos compartilham o planeta com milhares de espécies de animais não humanas que também são moralmente relevantes, especialmente porque muitos também são capazes de sofrer. Outros aspectos da natureza também podem ser importantes intrinsecamente: talvez haja algo que valha a pena proteger a respeito de ambientes que ainda não foram danificados ou não sofreram a interferência dos humanos. Por que, então, esse foco nos humanos?

O motivo é que (bem ou mal) os humanos se encontram numa posição de responsabilidade e controle sobre o destino dos animais e da natureza e são as únicas criaturas capazes de entender e agir de acordo com razões morais para melhorar o modo como o futuro se desdobrará. Animais, e talvez ecossistemas inteiros, podem ser pacientes morais — os tipos de coisas com as quais devemos nos importar —, mas humanos são os únicos agentes morais — criaturas capazes de planejar o que é melhor fazer, a partir de uma perspectiva moral.

Logo, ‘potencial humano’ deve ser considerado como algo que significa ‘os futuros que poderiam ser escolhidos por humanos’, em vez de simplesmente ‘futuros somente para a espécie humana’. O valor do futuro de longo prazo não precisa ser determinado apenas pelos humanos que vivem nele — você poderia muito bem expressar uma profunda preocupação com a melhoria do bem-estar dos animais, ou com a proteção de características da natureza, também no longo prazo. Isso é verdade na prática: muitos longotermistas são vegetarianos e veganos comprometidos.

Uma boa parte do longotermismo não é movida por probabilidades ínfimas de recompensas enormes?

Uma suspeita sobre a defesa do longotermismo é que ele se apoie em palpites extremamente especulativos sobre como influenciar o futuro, que categoricamente têm baixa probabilidade de dar frutos, mas que, supostamente, obtêm sua importância da enormidade do que está em jogo — de modo que até a mais remota possibilidade de sucesso faz valer a pena alocar recursos na intervenção. Mas isso pode parecer um nível questionável de ‘fanatismo’, especialmente se as pessoas e os recursos direcionados a projetos longotermistas pudessem, de outra forma, ser direcionados a problemas muito mais tangíveis e inadiáveis.

Este problema é especialmente relevante para os esforços de mitigação dos riscos existenciais: riscos que ameaçam limitar o potencial da humanidade, ao causar a sua extinção ou algum estado igualmente ruim e irrecuperável. Por exemplo, sabemos que é minusculamente baixa a probabilidade de um asteroide capaz de provocar a extinção colidir com a Terra neste século — mas como destruiria todas as esperanças futuras da humanidade, os longotermistas poderiam querer destinar enormes quantias de gastos para um sistema de defesa contra asteroides. Alguma coisa nesse raciocínio parece suspeita (N.T. Veja: Assalto de Pascal).

É verdade que, necessariamente, o raciocínio longotermista depende de forma pouco usual da extrapolação de dados incompletos, que utiliza métodos de previsão criativos e aceita muita incerteza. Mas não é verdade que o longotermismo tem sua importância em alguma multiplicação de futuros grandemente valiosos com probabilidades minúsculas.

Pense na defesa longotermista da prevenção de riscos catastróficos. O argumento não é que, embora os riscos sejam ínfimos, a ‘recompensa’ a ser desperdiçada é proporcionalmente ainda maior. O problema é que muitos dos riscos parecem inaceitável e insustentavelmente altos. Além disso, parece possível reduzi-los em quantidades significativas, não em pequenas lascas de probabilidade. De fato, em geral mal se precisa apelar às gerações futuras para ver por que devemos fazer mais para lidar com esses riscos, como explica Carl Shulman neste episódio de podcast.

Uma característica especialmente preocupante de escolhermos pequenas probabilidades de enormes recompensas talvez seja que isso significa renunciar inteiramente a benefícios quase certos, ou até muito provavelmente provocar um pequeno dano. Mas tampouco é esse o caso no longotermismo. Na verdade, as intervenções que o longotermismo sugere também parecem ser ótimas para o curto prazo e podem ter alguns benefícios significativos até quando não evitam literalmente uma catástrofe existencial. Por exemplo, muito do que poderíamos fazer para tratar dos riscos das piores pandemias também ajudariam com pandemias menos graves. E isso também se aplica quando o assunto é tratar de riscos de mudanças climáticas extremas e inteligências artificiais poderosas — trabalhos que parecem ser muito úteis num prazo relativamente curto, ainda que as piores hipóteses não se concretizem.

E, embora seja impossível evitar a incerteza sobre como será exatamente o futuro, algumas atitudes que podemos tomar no presente parecem ser bastante robustas para o futuro de longo prazo — como reduzir a probabilidade de uma guerra entre grandes potências neste século ou desenvolver medidas contra pandemias planejadas.

O longotermismo poderia justificar o totalitarismo ou outros males políticos?

Uma característica-chave do longotermismo é o reconhecimento da enormidade do que está em jogo: a quantidade de valor que se encontra no futuro de longo prazo poderia ser extraordinariamente grande, porém sua realização é incerta: poderá depender das nossas ações no presente. E, se a melhor e única maneira de garantir que o futuro transcorra bem seja com a implementação de um regime político altamente questionável? Ou, então, cometendo algum grave dano no curto prazo?

Mais especificamente, você pode imaginar uma situação em que desenvolvamos tecnologias tão perigosas e de custo tão baixo neste século que medidas bem sérias, como a vigilância em massa, acabem parecendo necessárias para evitar uma catástrofe (veja Bostrom (2019), ‘A Hipótese do Mundo Vulnerável‘ – ou essa explicação rápida do Glossário – N.T.). Pense, por exemplo, em um mundo em que a biotecnologia tenha avançado ao ponto em que um estudante de ensino médio inteligente possa criar e liberar um patógeno letal e altamente infeccioso. Para impedir que pandemias catastróficas devastem o mundo, sociedades podem decidir instituir mecanismos intrusivos de vigilância e imposição de leis para evitar que isso aconteça. A ênfase do longotermista no tamanho do que está em jogo poderia tornar essas medidas propensas a soar como a estratégia correta. Essa linha de pensamento é especialmente preocupante pois soa semelhante às justificativas, históricas e atuais, dadas as atrocidades perpetradas por regimes totalitários.

O filósofo liberal Isaiah Berlin resumiu este tipo de argumento:

“Tornar a humanidade justa, feliz, criativa e harmoniosa para sempre — qual poderia ser um preço alto demais a se pagar por isso? Para fazer tal omelete, certamente não existe um limite para o número de ovos que devem ser quebrados.

É possível observar várias citações de escritos sobre o longotermismo, reproduzidas fora do seu contexto mais amplo, e extrair preocupações nesse sentido. Logo, uma preocupação de que o longotermismo poderia justificar sérios males políticos é um tanto compreensível. Mas, francamente, é muito difícil de enxergar como isso se relaciona com aquilo no que os longotermistas atualmente trabalham ou ao que eles dão importância.

Na realidade, o totalitarismo é especialmente preocupante para os longotermistas, pois um regime totalitário auxiliado por novas tecnologias de vigilância e imposição de leis poderia, por si só, constituir o tipo de risco existencial que os longotermistas trabalham para prevenir. Assim sendo, uma grande parte da discussão e ação dentro do longotermismo foca na difusão de normas políticas que resistiram ao teste do tempo — o antiautoritarismo, o liberalismo e a ideia de uma sociedade aberta.

Os regimes totalitários do passado foram responsáveis pelas piores atrocidades da história humana: adversidades e mortes causadas não pela natureza, mas por escolhas humanas. Esses regimes fracassaram com horrendas consequências não apenas por causa de alguma disposição exagerada em fazer sacrifícios por um futuro melhor, mas porque estavam simplesmente errados sobre a ideia de que violência revolucionária e totalitarismo propriamente dito melhoram o mundo no curto ou no longo prazo. Portanto, é muito difícil pensar num cenário realista em que a perspectiva longotermista recomendaria o uso de repressão ou violência em massa, mas outras perspectivas plausíveis não as usariam (por exemplo, a escolha por combater as potências do Eixo na Segunda Guerra Mundial).

Dito isso, seria um equívoco ignorar preocupações de que ideias longotermistas possam ser distorcidas ou mal interpretadas para justificar males políticos no futuro. Sabemos que até aspirações bem nobres podem acabar se transformando em consequências terríveis nas mãos de pessoas normais e falíveis. Se essa preocupação for legítima, deveríamos tomar muito cuidado para comunicar ideias longotermistas com cuidado e sinceridade e para evitar que sejam usadas indevidamente ou levadas a direções perigosas.

Parece que os longotermistas não prestam tanta atenção às mudanças climáticas quanto eu esperava. O que está havendo?

Quando pensamos em modos de melhorar o futuro de longo prazo, as mudanças climáticas podem vir à mente de imediato. Sem sombra de dúvida, sabemos que a atividade humana perturba o clima da Terra e que as mudanças climáticas terão efeitos devastadores, como mais eventos climáticos extremos, o deslocamento de pessoas (predominantemente pobres) em massa e a perda da biodiversidade. Alguns desses efeitos poderiam durar muito tempo, pois gases do efeito estufa podem permanecer na atmosfera terrestre por dezenas de milhares de anos. Finalmente, temos controle sobre a quantidade de dano que causamos, com a duplicação de esforços para desenvolver tecnologia verde, a construção de mais fontes de energia zero carbono e a precificação de emissões de carbono de acordo com o seu verdadeiro custo social, por exemplo. Por essas razões, os longotermistas têm fortes motivos para se preocupar com as mudanças climáticas, e muitos estão trabalhando ativamente em questões climáticas (veja este relatório, por exemplo). Contudo, em geral, os longotermistas parecem focar relativamente mais em outros problemas, muitos dos quais soam bem mais obscuros. O que está havendo?

Uma preocupação especial para os longotermistas é a possibilidade de uma catástrofe existencial: um evento que destrua irrevogavelmente o potencial da humanidade no longo prazo. As mudanças climáticas às vezes são descritas como uma ‘ameaça existencial’, mas a definição desse termo estabelece um critério extremamente alto. Segundo ela, não está claro que as mudanças climáticas estão entre as causas mais plausíveis de uma catástrofe existencial. Valendo-se dos melhores dados disponíveis até o momento em que escreveu, o filósofo Toby Ord estima a probabilidade de uma catástrofe existencial causada diretamente por mudanças climáticas durante o próximo século como em torno de 1 em 1.000 (na maior parte motivada pela possibilidade de cenários ‘desenfreados’ e extremos). Por outro lado, o risco estimado de pandemias planejadas é 30 vezes mais alto, e o risco de inteligências artificiais desalinhadas é (na estimativa, de Ord), aproximadamente, 100 vezes mais alto. Com certeza, as mudanças climáticas são uma emergência global permanente. No entanto, dado o nosso atual estado de conhecimento, parece improvável que cause a extinção humana.

Assim, embora os ativistas climáticos se refiram às mudanças climáticas como uma ‘ameaça existencial’, elas não satisfazem bem a definição de ‘ameaça existencial’, na visão dos longotermistas. Desse modo, o que pode parecer uma divergência substancial sobre a severidade dos impactos das mudanças climáticas, em parte, poderia ser um caso de palavras sendo usadas de maneiras diferentes.

Outra razão pela qual alguns longotermistas priorizam ameaças ao futuro que não as mudanças climáticas é que, felizmente, os esforços para mitigar as mudanças climáticas recebem um volume considerável de atenção e recursos públicos. Assim, são comparativamente menos negligenciados do que, por exemplo, esforços para reduzir riscos de armas nucleares, patógenos feitos pelo homem ou inteligências artificiais. Isso é importante porque, quanto mais recursos são gastos para tratar um problema, menos impactantes tendem a ser os recursos adicionais. Assim, é provável que, relativamente falando, existam menos ‘alvos fáceis’ restantes a serem atingidos para progredir na mitigação dos efeitos das mudanças climáticas em comparação com outras temáticas mais negligenciadas. Aproximadamente US$ 1 trilhão por ano estão sendo investidos atualmente em tecnologia verde e em outras estratégias de mitigação. No momento, organizações sem fins lucrativos parecem estar gastando cerca de  US$ 10 bilhões por ano. Por outro lado, pense na ameaça de uma pandemia pior que a da covid. A covid provocou mais de dez milhões de mortes prematuras e trilhões de dólares em prejuízos econômicos, porém, menos de US$ 100 milhões do financiamento de organizações sem fins lucrativos parecem ter sido direcionados à melhoria na preparação para o enfrentamento de pandemias (em 2019). Assim, parece que um cientista especialista ou uma doação extra poderiam fazer mais para a preparação para pandemias do que para a mitigação dos efeitos gerais das mudanças climáticas. 

No melhor dos casos, há uma defesa forte da ideia de que devemos gastar muito mais do que gastamos atualmente com soluções práticas para problemas relativos às mudanças climáticas. Mas o fato lamentável é que os nossos recursos são finitos: para fazer o maior bem com os nossos recursos disponíveis, temos que identificar e trabalhar os problemas que parecem mais prementes, mesmo que à custa de outros problemas importantes.

Dito isso, sempre há maneiras de tratar as mudanças climáticas que parecem bastante negligenciadas a partir de uma perspectiva longotermista. Há um intenso debate sobre energia nuclear e como garantir que, se a geoengenharia for feita, o seja de modo seguro e responsável.

Outro exemplo é o trabalho na modelagem dos piores resultados possíveis, tal como propostos no conceito de “efeitos desenfreados” — visto que esses cenários poderiam causar danos que perdurariam prolongadamente no futuro e dos quais é quase impossível se recuperar plenamente. Tais modelos também podem nos ajudar a estudar e mitigar outros riscos, tal como os efeitos climáticos provocados por uma guerra nuclear de grande escala, erupções de supervulcões ou o impacto de imensos asteroides.


Autor: Fin Moorhouse

Tradução: Luan Marques

Publicado originalmente aqui.