Por que provavelmente não sou uma longoprazista

TL;DR: Estou muito mais interessada em tornar o futuro bom, em vez de longo ou grande, pois não acho que o mundo seja ótimo agora nem estou convencida de que será no futuro. Estou incerta que existam cenários que venham a nos prender a um mundo pelo menos tão ruim quanto este agora e que possamos evitá-lo ou moldá-lo de modo diferente, em um futuro próximo. Se não houver nenhuma forma de fazer algo nestes cenários, acho que é melhor focar nas formas “curtoprazistas tradicionais” de melhorar o mundo.

(N.R: Too Long, Didn’t Read – expressão bem comum na internet que quer dizer algo como “Longo demais, nem li”. Depois dela, costuma-se inserir uma ou duas frases resumindo o conteúdo do texto).

Achei que poderia ser interessante para outros AEs saberem por que não me sinto muito dentro do barco do longoprazismo, dado que o longoprazismo é importante para muitas pessoas na comunidade.

Este post é sobre a visão de mundo chamada longoprazismo. Ele não descreve uma posição sobre a priorização de causas. É muito possível que causas comumente associadas ao longoprazismo sejam relevantes sob considerações não-longoprazistas.

Estruturei esta postagem por pontos cruciais e destaquei que tipo de evidência ou argumento me convenceria de que estou errado, embora esteja ansioso para ouvir sobre outros que possa ter perdido! Eu geralmente não investigava meus pontos completamente. Portanto, apenas “provavelmente” não sou um longoprazista.

A qualidade do futuro a longo prazo

1. Acho muitos aspectos do utilitarismo pouco convincentes

Você não precisa ser um utilitarista para ser um longoprazista. Mas acho que, dependendo de como e onde você discorda do utilitarismo total, provavelmente não irá “até o fim” com o longoprazismo.

Eu me preocupo muito em entregar o mundo em bom estado para as gerações futuras. Também me preocupo com o bem-estar das pessoas, independentemente de quando isso aconteça. O que eu valorizo ​​menos do que um utilitarista total é trazer à existência pessoas felizes que não existiriam de outra forma. Isso significa que não estou muito preocupada com o fracasso da humanidade em se tornar muito maior e se espalhar para as estrelas. Embora criar pessoas felizes seja valioso, vejo isso como muito menos valioso do que garantir que as pessoas não sofram. Portanto, não estou extremamente preocupada com o potencial perdido dos riscos de extinção (mas me preocupo muito com seu impacto a curto prazo), embora isso dependa de quão bom e longo eu espero que seja o futuro (veja abaixo).

O que me convenceria do contrário:

Não me preocupo apenas em buscar meus próprios valores, mas gostaria de garantir que os valores refletidos por outras pessoas sejam implementados. Por exemplo, se a maioria das pessoas no mundo realmente se preocupasse em aumentar a população humana a longo prazo, eu daria muito mais prioridade a isso. No entanto, estou um pouco menos interessada na soma das preferências individuais, mas mais nas preferências de uma ampla variedade de grupos. Isso é para dar mais peso a visões de mundo mais raras, além de não recompensar um grupo sobrepondo outro ou espalhando seus valores de maneira imperialista.

Também quero dar mais peso aos valores das pessoas que mais sofrem. Se elas vieram a pensar que vale a pena priorizar o futuro a longo prazo em vez de sua dor atual, eu levaria isso muito a sério.

Alternativamente, me convencer do realismo moral e que o utilitarismo está correto, dentro dessa estrutura, também funcionaria. Até agora não vi uma explicação em linguagem simples de por que o realismo moral faz algum sentido, mas provavelmente seria um bom começo.

Se o mundo de repente melhorasse drasticamente e todos tivessem uma qualidade de vida tão boa quanto eu tenho hoje, eu ficaria feliz em me concentrar em tornar o futuro grande e longo, em vez de melhorar a vida das pessoas.

2. Não acho que a humanidade seja inerentemente super incrível

Um tema recorrente em muitas cosmovisões longoprazistas parece ser que a humanidade é maravilhosa e, portanto, deveria existir por muito tempo. Não me considero uma misantropa, suponho que minhas opiniões estejam na média dos demais europeus. A humanidade tem muitos grandes aspectos que eu gosto de ver prosperar.

Mas acho confuso o entusiasmo manifestado pela humanidade que a maioria dos adeptos do longoprazismo parece ter. Mesmo agora, a humanidade está cometendo genocídios, deixando milhões de pessoas morrerem de fome, escravizando e torturando pessoas, bem como bilhões de animais de criação industrial. Acho isso difícil de conciliar com uma visão de mundo de que “a humanidade é incrível”.

Um contra-argumento comum a isso parece ser o de que esses são problemas, mas que apenas ainda não os resolvemos. Que os humanos são preguiçosos, não maus. Isso não me convence. Não me preocupo apenas com as pessoas viverem bem, mas também com o fato de serem boas pessoas. A preguiça não é desculpa.

Neste momento, temos a capacidade de fazer mais. De maneira geral, nós não fazemos. Poucas pessoas que ouvem falar das organizações recomendadas pela GiveWell decidem doar uma quantia significativa dos seus rendimentos. As pessoas viajam em voos turísticos intercontinentais, apesar de saberem sobre as mudanças climáticas. Muitos comem carne apesar de terem ouvido falar das condições das fazendas industriais. A ajuda global é uma pequena proporção dos orçamentos da maioria dos países desenvolvidos. Esses exemplos são bastante cosmopolitas, mas não considero isso crítico.

Tomados um de cada vez, você pode discutir com esses exemplos. Às vezes, as pessoas realmente não têm as informações. Elas podem ter divergências empíricas ou visões morais diferentes (por exemplo, não considerar os animais como sencientes). Às vezes, elas fazem uma triagem e priorizam outras formas de fazer o bem. Eu estou bem com todos esses motivos.

Mas, no final, parece-me que muitas pessoas têm muitos recursos para fazerem o bem e, no entanto, ainda restam enormes problemas. Certamente será ótimo se estabelecermos sistemas melhores no futuro para reduzir a miséria e tivermos as recompensas e os castigos certos para levar as pessoas a se comportarem melhor. Mas não estou entusiasmado com uma humanidade que exige que elas se comportem bem.

Isso também me deixa relutante em colocar muito peso em ajudar as pessoas a serem boas, independentemente de quando isso aconteça. Isso só é verdade se as pessoas no futuro forem tão moralmente merecedoras quanto as pessoas são hoje.

Ou colocando de outra forma: se os humanos realmente fossem tão incríveis, não precisaríamos nos preocupar com todos esses riscos para o futuro. Eles se resolveriam sozinhos.

O que me convenceria do contrário:

Eu ficaria absolutamente emocionada em estar errada sobre como as pessoas são morais onde eu moro! Reconheço que acho difícil pensar em evidências plausíveis, pois parecem estar em contradição direta com o mundo que observo. Talvez seja genuinamente uma falta de informação que impeça as pessoas de agirem melhor, como por ex. Max Rose de Our World in Data parece acreditar. Eu seria persuadida se campanhas de conscientização alcançarem grandes efeitos.

Não estou familiarizada com a seriedade com que as pessoas encaram suas obrigações morais em outros lugares e épocas. Talvez a falta de investimento que vejo seja uma aberração local.

Mesmo que isso não deva ter impacto em minha visão de mundo, provavelmente também me sentiria mais confortável com a ideia do longoprazismo se visse um foco mais forte na engenharia social ou médica para produzir pessoas (moralmente) melhores dentro da comunidade longoprazista.

3. Não tenho certeza se o futuro será melhor do que é hoje

De muitas maneiras, o mundo ficou muito melhor. A pobreza extrema caiu e a expectativa de vida aumentou. Menos pessoas são escravizadas. Estou otimista sobre a continuação dessas tendências positivas.

O que me deixa mais cética é quanto da história essas tendências contam. Embora provavelmente a maioria das pessoas concorde que é bom ter menos pessoas famintas e morrendo jovens, há muitas tendências que são elogiadas por pessoas longoprazistas sobre as quais outros podem ter opiniões diferentes, por exemplo, o declínio da religiosidade. Ou eles podem colocar mais peso em outros aspectos. Alguém que valoriza muito os animais pode ver a criação intensiva e pensar que o mundo não melhorou.

Preocupa-me que ver o mundo melhorando dependa de uma visão de mundo com valores bastante incomuns. Usando a lente da teoria dos fundamentos morais de Haidt, parece que a maioria das melhorias está no fundamento Cuidado/dano, enquanto o mundo pode não ter melhorado de acordo com outros fundamentos morais como Lealdade/traição ou Santidade/degradação.

Além disso, espero que muitas das coisas que melhoraram no mundo desapareçam antes de se tornarem negativas. Mas estou preocupada que alguns não. Por exemplo, acho que o aumento do hedonismo e do individualismo têm sido boas forças, mas, se se tornarem excessivas, considero que elas tornarão o mundo pior — e parece-me que estamos quase ou já estamos lá.

De modo geral, me preocupo que certas tendências costumam ultrapassar seu bom objetivo original, otimizando sua característica além da conta. A otimização para o lucro é o exemplo mais claro disso. Eu escrevi um pouco mais sobre esse tema aqui.

Se o mundo não está melhor do que no passado, não faz sentido extrapolar para uma expectativa de um futuro ainda melhor. Para mim, este é outro argumento a favor de focarmos em tornar o futuro bom, em vez de longo ou grande.

Em uma nota relacionada, embora este não seja um argumento que me dissuada do longoprazismo, alguns longoprazistas ansiosos por futuros que considero inúteis (por exemplo, a onda de choque de hedonium) me afastam. Culturalmente, muitos longoprazistas parecem favorecer mais hedonismo, individualismo e tecno-utopismo do que eu gostaria.

O que me convenceria do contrário:

Estou bem ciente de que muitas pessoas são pessimistas sobre o futuro porque entendem errado fatos simples sobre como o mundo está mudando. No entanto, estou interessada em aprender mais sobre como diferentes visões de mundo levam a perceber o mundo como melhorando ou não.

A duração do futuro a longo prazo

Não me sinto compelida por argumentos de que o futuro pode ser muito longo. Não vejo como isso é possível sem pelo menos um totalitarismo brando, que trará seus próprios riscos de reduzir o valor do futuro.

Ou, olhando numa perspectiva diferente, as pessoas que trabalham com riscos existenciais passaram alguns anos me convencendo de que os riscos existenciais são muito grandes. Mudar desse argumento para o trabalho em riscos existenciais do longoprazismo, que requer alcançar segurança existencial, me dá uma sensação de chicotada.

Veja também essa postagem curta sobre o tema. Um argumento levantado é a regra de Lindy, apontando que os sistemas de autopropagação existem há bilhões de anos, então podemos esperar essa duração novamente. Mas não vejo por que os sistemas de autopropagação devem ser a linha de base, estou apenas interessada em aplicar a regra de Lindy a uma civilização humana moralmente valiosa que tem sido bastante curta em comparação.

Também não estou interessada em basear decisões em cálculos aproximados de valores esperados nos quais a avaliação da baixa probabilidade é incerta e o valor esperado é o argumento principal (em oposição a uma abordagem mais baseada em ‘pensamento de cluster‘). Em princípio, não me oponho a tais decisões, mas meu próprio histórico com tais decisões é muito ruim: o valor esperado previsto por trás dos cálculos no verso do envelope não se materializa. Também tenho as preocupações tradicionais do tipo assalto de Pascal para priorizar a probabilidade potencialmente pequena de uma civilização muito grande.

O que me convenceria do contrário:

Eu apreciaria argumentos sólidos sobre como a humanidade poderia alcançar segurança existencial.

A capacidade de influenciar o futuro a longo prazo

Não estou convencida de que as pessoas possam ter um impacto positivo confiável que se dissipe no futuro além de 100 anos, talvez dentro de um fator de 3. Mas há uma exceção importante: se tivermos a capacidade de prevenir ou moldar um cenário de “aprisionamento” dentro deste prazo. Por aprisionamento, quero dizer qualquer coisa da qual a humanidade nunca possa escapar. Os riscos de extinção são um exemplo óbvio, outros são o colapso civilizacional permanente.

Estou ciente de que a definição canônica de riscos existenciais de Bostrom inclui esses dois cenários de aprisionamento, mas também inclui cenários que considero irrelevantes (falha em alcançar um futuro transhumanista), razão pela qual não estou usando o termo nesta seção.

Pensando que não podemos impactar o mundo de forma confiável por mais de várias décadas, não acho atraente trabalhar em áreas-causa como “melhorar a tomada de decisões institucionais“, exceto por sua capacidade de moldar ou impedir um aprisionamento nesse espaço de tempo.

Também estou interessada apenas em cenários de aprisionamento que seriam tão ruins ou piores que o mundo atual, ou talvez não muito melhores. Não estou interessada em impedir um futuro em que os humanos apenas assistem à Netflix o dia todo – seria muito decepcionante, mas pelo menos melhor do que um mundo em que as pessoas rotineiramente morrem de fome.

No momento, não sei o suficiente sobre as probabilidades de uma série de cenários ruins de aprisionamento para julgar se o foco neles é justificado, sob minha visão de mundo. Se for esse o caso em uma investigação mais aprofundada, eu posso imaginar que poderia descrever minha visão de mundo como longoprazista, caso seja pressionada, mas suponho que ainda sentiria uma desconexão cultural com outros longoprazistas.

Se não houver opções para evitar ou moldar cenários ruins de aprisionamento nas próximas décadas, espero que melhorar o mundo com abordagens “tradicionais curtotermistas” seja o melhor. Minhas opiniões aqui são muito semelhantes às de Alexander Berger, que ele expôs neste podcast do 80.000 horas.

O que me convenceria do contrário:

Se já ocorreram intervenções que tiveram impacto por mais de algumas centenas de anos e que foram intencionais, gostaria de saber sobre elas. Estou familiarizado com as postagens do Carl no blog sobre o tema.

Espero passar algum tempo investigando esse ponto crucial em breve: se houver cenários ruins de aprisionamento no horizonte que possamos evitar ou moldar, isso provavelmente mudaria meus sentimentos sobre o longoprazismo.

Dado que este é um ponto crucial importante, pode-se considerar prematuro que eu já tire conclusões sobre minha visão de mundo. Mas meus outros pontos de vista parecem suficientemente diferentes da maioria dos pontos de vista longoprazistas que costumo ouvir, então acho que valha a pena mantê-los independentemente.

Se alguém tiver algum outro conteúdo que queira me indicar e que possa mudar minha opinião, estarei ansiosa para ouvi-lo.

Agradeço a AGB e Linch Zhang por fornecer comentários sobre o rascunho deste post.

Esta obra está licenciada sob a Licença Creative Commons Atribuição 4.0 Internacional.


Publicado originalmente em 23 de setembro de 2021 aqui.

Autora: Denise Melchin

Tradução: Bruna Bernardes

Revisão: Fernando Moreno

Deixe um comentário