Steven Pinker sobre riscos da Inteligência Artificial

agente 86

Nota: o texto abaixo é um trecho do capítulo 19-Riscos Existenciais do livro o Novo Iluminismo, de Steven Pinker. Neste texto ele minimiza os riscos existenciais, principalmente os relativos à Inteligência Artificial (IA). Trata-se de um interessante contraponto e um dos poucos disponíveis em português a respeito deste tema atualmente tão caro a comunidade do Altruísmo Eficaz. Não se trata assim de endossar totalmente o argumento do Pinker, o qual nem de longe encerra o tema, mas de também considerar que contrapontos como esse podem ter importante papel de autocrítica ao movimento.

Ameaças existenciais

Mas não estaríamos flertando com o desastre? Quando são obrigados a admitir que a vida está melhorando para cada vez mais pessoas, os pessimistas têm uma réplica pronta. Estamos correndo alegremente na direção de uma catástrofe, segundo eles, como o homem que cai do último andar do edifício e diz “até agora tudo bem” a cada andar que passa. Ou estamos jogando roleta-russa e seremos apanhados de forma inevitável pela morte. Ou seremos atacados por algo altamente improvável, um evento de pouca monta na cauda da distribuição estatística de riscos, mas de impacto calamitoso.

Durante meio século, os quatro cavaleiros do apocalipse moderno foram a superpopulação, a escassez de recursos naturais, a poluição e a guerra nuclear. Eles ganharam recentemente a companhia de cavaleiros mais exóticos: nanorrobôs que nos engolfarão, robôs que nos escravizarão, inteligência artificial que nos transformará em matérias-primas e adolescentes búlgaros que criarão um vírus genocida ou derrubarão a internet a partir de seus quartos.

As sentinelas para esses cavaleiros familiares costumavam ser românticas e luditas. Mas aqueles que lançam alertas sobre os perigos da tecnologia mais avançada são, muitas vezes, cientistas e tecnólogos que puseram sua engenhosidade em campo para identificar cada vez mais maneiras pelas quais o mundo acabará em breve. Em 2003, o eminente astrofísico Martin Rees publicou um livro intitulado Hora final, no qual advertia que “a humanidade é potencialmente a criadora de seu próprio fim” e apresentava dezenas de maneiras pelas quais “pomos em perigo o futuro de todo o universo”. Por exemplo, experiências com colisões de partículas poderiam criar um buraco negro que aniquilaria a Terra ou um “strangelet” de quarks comprimidos que faria com que toda a matéria no cosmos fosse absorvida por ele e desaparecesse. Rees perfurou um rico veio de catastrofismo. A página da Amazon que anuncia seu livro avisa: “Os clientes que viram este item também viram Riscos catastróficos globais; Nossa invenção final: Inteligência artificial e o fim da era humana; O fim: O que a ciência e a religião nos dizem sobre o apocalipse; e Guerra Mundial Z: Uma história oral da guerra dos zumbis”. Os tecnofilantropos financiaram institutos de pesquisa dedicados a descobrir novas ameaças existenciais e maneiras de salvar o mundo, entre eles o Instituto do Futuro da Humanidade, o Instituto do Futuro da Vida, o Centro para o Estudo do Risco Existencial e o Instituto do Risco Catastrófico Global.

Como devemos encarar as ameaças existenciais que nos espreitam detrás do nosso progresso gradual? Ninguém pode profetizar que um cataclismo jamais acontecerá, e esse capítulo não contém essa garantia. Mas vou estabelecer uma maneira de pensar sobre essas ameaças e examinar as principais. Três delas — superpopulação, esgotamento de recursos naturais e poluição, inclusive os gases de efeito estufa — foram discutidas no capítulo 10 e retomarei a mesma abordagem aqui. Algumas ameaças são invenções do pessimismo cultural e histórico. Outras são genuínas, mas não precisamos tratá-las como apocalipses à nossa espera, e sim como problemas a serem resolvidos.

À primeira vista, pode-se imaginar que, quanto mais pensarmos nos riscos existenciais, melhor. O que está em jogo literalmente não poderia ser maior. Que mal pode haver em fazer as pessoas pensarem sobre esses riscos terríveis? O pior que poderia acontecer seria tomarmos algumas precauções que, em retrospectiva, se revelariam desnecessárias.

Mas o pensamento apocalíptico tem graves desvantagens. Uma delas é que os falsos alarmes para riscos catastróficos podem ser catastróficos por si mesmos. A corrida armamentista nuclear da década de 1960, por exemplo, foi provocada pelos temores de uma mítica “defasagem de mísseis” em relação à União Soviética. A invasão do Iraque em 2003 foi justificada pela possibilidade incerta, mas catastrófica, de que Saddam Hussein estivesse desenvolvendo armas nucleares e planejasse usá-las contra os Estados Unidos. (Como disse George W. Bush: “Não podemos esperar pela prova final — o revólver fumegante — que poderia vir tal qual uma nuvem em forma de cogumelo”.) E, como veremos, uma das razões por que as grandes potências se recusam a fazer a promessa de senso comum de que não serão as primeiras a usar armas nucleares é quererem se reservar o direito de usá-las contra outras supostas ameaças existenciais, como o bioterrorismo e os ataques cibernéticos. Semear o medo de desastres hipotéticos, longe de salvaguardar o futuro da humanidade, pode colocá-lo em perigo.

Um segundo risco de enumerar cenários de Juízo Final é que a humanidade tem um orçamento finito de recursos, capacidade intelectual e ansiedade. Não podemos nos preocupar com tudo. Algumas das ameaças que enfrentamos, como a mudança climática e a guerra nuclear, são inconfundíveis e exigirão enorme esforço e engenhosidade para mitigá-las. Incorporá-las a uma lista de contextos exóticos com probabilidades minúsculas ou desconhecidas só serve para diluir a sensação de urgência. Lembremos que as pessoas não são boas em avaliar probabilidades, especialmente as pequenas, e em vez disso inventam situações imaginárias. Se duas perspectivas são igualmente imagináveis, elas podem ser consideradas prováveis na mesma medida, e as pessoas vão se preocupar tanto com o perigo genuíno como com a trama de ficção científica. E, quanto mais as pessoas imaginarem que coisas ruins podem acontecer, maior será sua estimativa de que alguma coisa ruim vai acontecer.

E isso leva ao maior perigo de todos: que as pessoas pensem, como disse um artigo recente do New York Times, que “esses fatos sombrios deveriam levar qualquer pessoa razoável a concluir que a humanidade está ferrada”. Se a humanidade está mesmo ferrada, por que sacrificar alguma coisa para reduzir riscos potenciais? Por que renunciar à conveniência dos combustíveis fósseis, ou exortar os governos a repensar suas políticas de armas nucleares? Vamos comer, beber e nos alegrar, pois amanhã morreremos! Uma pesquisa de 2013 em quatro países de língua inglesa mostrou que, entre os entrevistados que acreditam que o nosso modo de vida provavelmente acabará em um século, a maioria endossou a seguinte afirmação: “O futuro do mundo parece sombrio, então temos de nos concentrar em cuidar de nós mesmos e daqueles que amamos”.

Poucos autores que escrevem sobre risco tecnológico dão atenção aos efeitos psicológicos cumulativos do rufar dos tambores do Juízo Final. Como ressalta o comunicador ambiental Elin Kelsey: “Temos classificações da mídia para proteger as crianças contra o sexo ou a violência nos filmes, mas não hesitamos em convidar um cientista para visitar uma sala de aula de segunda série e dizer às crianças que o planeta está arruinado. Um quarto das crianças (australianas) está tão preocupado com a situação do mundo que acredita sinceramente que ele acabará antes de envelhecerem”. De acordo com pesquisas recentes, 15% da humanidade e entre um quarto e um terço dos americanos pensam o mesmo. Em The Progress Paradox, o jornalista Gregg Easterbrook sugere que um dos principais motivos de os americanos não serem mais felizes, apesar do aumento de suas fortunas objetivas, é a “ansiedade do colapso”: o medo de que a civilização possa implodir e não haver nada que se possa fazer a respeito.

É evidente que as emoções das pessoas são irrelevantes se os riscos forem reais. Mas as avaliações de risco se desmantelam quando lidam com acontecimentos altamente improváveis em sistemas complexos. Uma vez que não podemos reproduzir a história milhares de vezes e contar os resultados, uma declaração de que algum acontecimento ocorrerá com uma probabilidade de ,01 ou ,001 ou ,0001 ou ,00001 trata-se, na prática, de uma leitura da confiança subjetiva do avaliador. Isso inclui análises matemáticas em que os cientistas representam em gráficos a distribuição de eventos no passado (como guerras ou ataques cibernéticos) e mostram que caem em uma distribuição de poder-lei, com caudas “gordas” ou “grossas”, nas quais os eventos extremos são muitíssimo improváveis, mas não astronomicamente improváveis. A matemática é de pouca ajuda para calibrar o risco, porque os dados dispersos ao longo da cauda da distribuição em geral se comportam mal, desviando-se de uma curva suave e tornando impossível a estimativa. Tudo o que sabemos é que coisas muito ruins podem acontecer.

Isso nos leva de volta a leituras subjetivas, que tendem a ser infladas pelos vieses da disponibilidade e da negatividade e pelo mercado da seriedade intelectual (capítulo 4). Aqueles que semeiam o medo de uma profecia terrível podem ser vistos como sérios e responsáveis, enquanto os comedidos são considerados complacentes e ingênuos. O desespero é o último que morre. Pelo menos desde os profetas hebreus e do Livro do Apocalipse, videntes advertem seus contemporâneos de um iminente dia do Juízo Final.

As previsões do fim dos tempos são um elemento básico de médiuns, místicos, televangelistas, seitas malucas, fundadores de religiões e homens que andam pela calçada com cartazes com a ameaça: “Arrependam-se!”. O enredo que culmina num duro castigo pela tecnologia que sai do controle é um arquétipo da ficção ocidental que inclui o fogo de Prometeu, a caixa de Pandora, o voo de Ícaro, o pacto de Fausto, o Aprendiz de Feiticeiro, o monstro de Frankenstein e, de Hollywood, mais de 250 filmes sobre o fim do mundo. Como observou o historiador da ciência Eric Zencey: “Há sedução no pensamento apocalíptico. Se alguém vive nos Últimos Dias, suas ações e sua própria vida assumem um significado histórico e uma pungência considerável”.

Cientistas e tecnólogos não estão imunes de forma nenhuma. Lembram do bug do milênio? Na década de 1990, à medida que a virada do milênio se aproximava, cientistas da computação começaram a alertar o mundo sobre uma catástrofe iminente. Nas primeiras décadas da computação, quando a informação era cara, os programadores costumavam economizar alguns bytes representando um ano por seus dois últimos dígitos. Eles imaginavam que, no momento em que o ano 2000 se aproximasse e o “19” implícito não fosse mais válido, os programas já estariam obsoletos. Mas um software complicado é substituído lentamente, e muitos programas antigos ainda estavam rodando em mainframes institucionais e incorporados a chips. Quando chegasse a zero hora do dia 1o de janeiro de 2000 e os dígitos avançassem, um programa pensaria que era 1900 e entraria em pane ou ficaria confuso (presumivelmente porque dividiria algum número pela diferença entre o que pensava ser o ano atual e o ano de 1900, ou seja, zero, embora o motivo pelo qual um programa faria isso nunca tenha ficado claro). Naquele momento, os saldos bancários seriam eliminados, os elevadores parariam entre os pisos, as incubadoras nas maternidades se desligariam, as bombas de água deixariam de funcionar, aviões despencariam do céu, as usinas de energia nuclear derreteriam e mísseis balísticos intercontinentais seriam disparados de seus silos.

E essas eram as previsões das autoridades entendidas em tecnologia (como o presidente Bill Clinton, que advertiu a nação: “Quero enfatizar a urgência do desafio. Não se trata de um desses filmes de verão em que você pode fechar os olhos durante a parte assustadora”). Os pessimistas culturais viram o bug do milênio como um castigo merecido pelo fascínio de nossa civilização pela tecnologia. Entre os pensadores religiosos, a ligação numerológica com o milenarismo cristão era irresistível. O reverendo Jerry Falwell declarou: “Eu acredito que o bug do milênio pode ser o instrumento de Deus para sacudir esta nação, humilhar esta nação, despertar esta nação e desta nação iniciar o renascimento que se espalha pela face da Terra diante do Arrebatamento da Igreja”. Gastaram-se 100 bilhões de dólares em todo o mundo na reprogramação de software a fim de se preparar para o bug do milênio, um desafio que foi comparado à substituição de todos os parafusos de todas as pontes do mundo.

Como ex-programador de linguagem Assembly, eu via com ceticismo as previsões apocalípticas e, por acaso, estava na Nova Zelândia, o primeiro país a receber o novo milênio, no momento fatídico. Com certeza, à meia-noite do dia 1o de janeiro, nada aconteceu (logo reconfortei os membros de minha família usando um telefone que funcionava sem nenhum problema). Os reprogramadores do bug do milênio, como o vendedor de repelente de elefantes, assumiram o mérito de ter evitado desastres, mas muitos países e pequenas empresas haviam assumido o risco sem nenhuma preparação e também não tiveram dificuldades. Embora alguns softwares precisassem de atualização (um programa exibiu no meu laptop “1 de janeiro de 19100”), verificou-se que pouquíssimos programas, em particular aqueles incorporados a máquinas, haviam ao mesmo tempo contido o erro e realizado cálculos aritméticos furiosos sobre o ano corrente. A ameaça acabou por ser pouco mais séria do que a caligrafia no cartaz-sanduíche do profeta da calçada. O Grande Pânico do Bug do Milênio não significa que todos os avisos de catástrofes potenciais são alarmes falsos, mas nos lembra que somos vulneráveis a delírios tecnoapocalípticos.

Como devemos abordar as ameaças catastróficas? Comecemos pela maior questão existencial de todas, o destino de nossa espécie. Tal como acontece com a questão mais paroquial de nosso destino como indivíduos, certamente teremos de aceitar nossa mortalidade. Os biólogos brincam que, a uma primeira aproximação, todas as espécies estão extintas, já que esse foi o destino de pelo menos 99% das espécies que já viveram. Uma espécie típica de mamífero dura cerca de 1 milhão de anos, e é difícil insistir que o Homo sapiens será uma exceção. Mesmo que tivéssemos permanecido como caçadores-coletores tecnologicamente modestos, ainda estaríamos vivendo em uma galeria de tiro geológica. Uma irrupção de raios gama de uma supernova ou estrela em colapso poderia submeter metade do planeta à radiação, tornar opaca a atmosfera e destruir a camada de ozônio, permitindo que a luz ultravioleta se irradiasse para a outra metade. Ou o campo magnético da Terra poderia virar, expondo o planeta a um interlúdio de radiação solar e cósmica letal. Um asteroide poderia chocar-se com a Terra, achatando milhares de quilômetros quadrados e jogando para o ar detritos que escureceriam a luz solar e nos encharcariam com uma chuva corrosiva. Supervulcões ou imensos fluxos de lava podem nos sufocar com cinzas, CO2 e ácido sulfúrico. Um buraco negro poderia entrar no sistema solar e puxar a Terra para fora da órbita ou sugá-la para o nada. Mesmo que a espécie conseguisse sobreviver por mais 1 bilhão de anos, a Terra e o sistema solar não vão sobreviver: o Sol começará a gastar seu hidrogênio, ficará mais denso e mais quente e ferverá nossos oceanos a caminho para se tornar um gigante vermelho.

A tecnologia, portanto, não é o motivo pelo qual nossa espécie deve algum dia enfrentar o Anjo da Morte. Na verdade, é nossa melhor esperança para enganar a morte, pelo menos por um tempo. Enquanto consideramos os desastres hipotéticos no futuro, devemos também refletir sobre os avanços hipotéticos que nos permitiriam sobreviver, como alimentos cultivados sob luzes movidas por fusão nuclear ou sintetizados em unidades industriais, como os biocombustíveis. Até mesmo tecnologias de um futuro não tão distante poderiam salvar nossa pele. É tecnicamente viável rastrear a trajetória de asteroides e outros “objetos próximos da Terra de classe em extinção”, localizar aqueles que estão em rota de colisão com a Terra e desviá-los antes de nos mandarem para junto dos dinossauros. A Nasa também descobriu uma maneira de bombear água em alta pressão para dentro de um supervulcão e extrair o calor para energia geotérmica, resfriando o magma o suficiente para que nunca mais explodisse. Nossos antepassados eram impotentes diante dessas ameaças letais e, nesse sentido, a tecnologia não tornou esta era excepcionalmente perigosa na história de nossa espécie, e sim excepcionalmente segura.

Por essa razão, a alegação tecnoapocalíptica de que nossa civilização é a primeira que pode destruir a si mesma é mal concebida. Assim como Ozymandias relembra o viajante no poema de Percy Bysshe Shelley, a maioria das civilizações que já existiram foi destruída. A história convencional põe a culpa da destruição em eventos externos como pestes, conquistas, terremotos ou desastres climáticos. Mas David Deutsch ressalta que essas civilizações poderiam ter impedido os golpes fatais se tivessem uma melhor tecnologia agrícola, médica ou militar:

Antes que nossos ancestrais aprendessem a produzir fogo de forma artificial (e muitas vezes desde então também), pessoas devem ter morrido de exposição literalmente em cima dos meios de fazer as fogueiras que salvaram suas vidas, porque não sabiam como fazê-lo. Em um sentido restrito, o clima os matou; mas a explicação mais profunda é a falta de conhecimento. Muitas das centenas de milhões de vítimas do cólera ao longo da história devem ter morrido perto das lareiras onde poderiam ter fervido a água potável e salvado a vida delas; porém, mais uma vez, elas não sabiam disso. Em geral, a distinção entre um desastre “natural” e um provocado pela ignorância é estreita. Antes de cada desastre natural que as pessoas costumavam pensar que “simplesmente acontece”, ou que era mandado pelos deuses, agora vemos muitas opções que as pessoas afetadas não tomam — ou antes, não criam. E todas essas opções se acrescentam à opção abrangente que elas não conseguiram criar, a saber, a formação de uma civilização científica e tecnológica como a nossa. Tradições de crítica. Um iluminismo.

Entre os supostos riscos existenciais que ameaçam o surgimento da humanidade, destaca-se uma versão do século XXI do bug do milênio. Trata-se do perigo de sermos subjugados, intencional ou acidentalmente, pela inteligência artificial (IA), um desastre às vezes chamado de Robopocalipse e em geral ilustrado com imagens dos filmes da franquia O exterminador do futuro. Tal como aconteceu com o bug do milênio, algumas pessoas inteligentes levam isso a sério. Elon Musk, cuja empresa fabrica carros autônomos artificialmente inteligentes, descreveu a tecnologia como “mais perigosa do que armas nucleares”. Stephen Hawking, falando através de seu sintetizador artificialmente inteligente, advertiu que isso poderia “significar o fim da raça humana”. Mas entre as pessoas inteligentes que não estão perdendo o sono com isso está a maioria dos especialistas em inteligência artificial e a maioria dos especialistas em inteligência humana.

O Robopocalipse baseia-se numa concepção confusa de inteligência que deve mais à Grande Cadeia do Ser e a uma vontade nietzschiana de poder do que a um entendimento científico moderno. Nessa concepção, a inteligência é uma poção todo-poderosa e vociferante de desejo que os agentes possuem em quantidades diferentes. Os seres humanos têm mais do que os animais, e um computador ou um robô artificialmente inteligente do futuro (“uma IA”, no novo uso de substantivo contável) terá mais do que os humanos. Uma vez que nós humanos usamos nosso dote moderado para domesticar ou exterminar animais menos dotados (e uma vez que as sociedades com tecnologias avançadas escravizaram ou aniquilaram as primitivas), segue-se que uma IA superinteligente faria o mesmo conosco. Tendo em vista que uma IA pensará milhões de vezes mais rápido do que nós e usará sua superinteligência para melhorar de forma contínua sua superinteligência (uma hipótese às vezes chamada de “foom”, um efeito de som das histórias em quadrinhos), desde o instante em que for acionada, seremos impotentes para detê-la.

No entanto, a hipótese faz tanto sentido quanto o temor de que os aviões a jato, tendo em vista que ultrapassaram a capacidade de voar das águias, algum dia descerão do céu e pegarão nosso gado. A primeira falácia é uma confusão de inteligência com motivação — de crenças com desejos, inferências com objetivos, pensamento com vontade. Mesmo que inventássemos robôs de inteligência sobre-humana, por que eles iriam querer escravizar seus senhores ou assumir o controle do mundo? Inteligência é a capacidade de usar novos meios para alcançar um objetivo. Mas os objetivos são estranhos à inteligência: ser inteligente não é o mesmo que querer alguma coisa. Acontece que a inteligência em determinado sistema, o Homo sapiens, é um produto da seleção natural darwiniana, um processo inerentemente competitivo. Nos cérebros dessa espécie, o raciocínio vem junto (em graus variados em diferentes espécimes) com objetivos como dominar rivais e acumular recursos. Mas é um erro confundir um circuito no cérebro límbico de determinada espécie de primata com a própria natureza da inteligência. Um sistema artificialmente inteligente que foi projetado, em vez de evoluído, poderia apenas pensar como os shmoos, personagens altruístas com formato de bolhas de Li’l Abner, a tira de quadrinhos de Al Capp, que utilizavam sua considerável engenhosidade para assarem a si mesmos a fim de matar a fome de seres humanos. Não há lei dos sistemas complexos que afirme que agentes inteligentes devem transformar-se em conquistadores implacáveis. Na verdade, conhecemos uma forma avançadíssima de inteligência que evoluiu sem esse defeito. Chama-se mulher.

A segunda falácia é pensar na inteligência como um continuum ilimitado de potência, um elixir milagroso com o poder de resolver qualquer problema, atingir qualquer objetivo. A falácia leva a questões sem sentido como quando uma IA “superará a inteligência de nível humano”, e à imagem de uma máxima “Inteligência Artificial Geral” (IAG) com a onisciência e a onipotência de Deus. A inteligência é um dispositivo de engenhocas: módulos de software que adquirem ou estão programados com conhecimentos sobre como perseguir vários objetivos em vários domínios. As pessoas estão equipadas para encontrar comida, fazer amigos e influenciar pessoas, encantar possíveis companheiros, criar crianças, andar pelo mundo e ir atrás de outros passatempos e obsessões humanos. Os computadores podem ser programados para assumir alguns desses problemas (como reconhecer rostos), não se aborrecer com os outros (como companheiros encantadores) e resolver alguns que os seres humanos não conseguem (como simular o clima ou classificar milhões de registros contábeis). Os problemas são diferentes, e os tipos de conhecimento necessários para resolvê-los são diferentes. Ao contrário do demônio de Laplace, o ser mítico que conhece a localização e o momentum de cada partícula do universo e os inclui em equações das leis físicas para calcular o estado de tudo a qualquer momento do futuro, um ser humano da vida real precisa obter informações sobre o mundo desordenado de objetos e pessoas, envolvendo-se com uma área por vez. O entendimento não obedece à lei de Moore: o conhecimento é adquirido formulando-se explicações e testando-as na realidade, e não executando um algoritmo de forma cada vez mais rápida. Devorar as informações na internet tampouco conferirá onisciência: os big data ainda são dados finitos, e o universo do conhecimento é infinito.

Por essas razões, muitos pesquisadores de IA estão aborrecidos com a mais recente demonstração de empolgação (a maldição perene da IA), que induziu os observadores a pensar que a Inteligência Artificial Geral está logo ali, dobrando a esquina. Pelo que sei, não há projetos para construir uma IAG, não só porque seria comercialmente duvidosa, mas porque o conceito é quase incoerente. É certo que a década de 2010 nos trouxe sistemas que podem dirigir carros, bater fotografias, reconhecer a fala e vencer os seres humanos nos jogos de computador Jeopardy!, Go e Atari. Mas os avanços não vieram de uma melhor compreensão do funcionamento da inteligência, porém do poder de força bruta de chips mais rápidos e dados mais abrangentes, que permitem que os programas sejam treinados em milhões de exemplos e generalizem para novos exemplos semelhantes. Cada sistema é um sábio idiota, com pouca capacidade de encarar problemas que não está configurado para resolver, e um domínio frágil daqueles para os quais estava configurado. Um programa de legenda de fotos rotula um acidente de avião iminente de “Um avião está estacionado na pista”; um programa de jogos se desconcerta diante da menor mudança nas regras de pontuação. Embora os programas venham certamente a melhorar, não há sinais de foom. Tampouco algum desses programas fez um movimento no sentido de tomar o laboratório ou escravizar seus programadores.

Mesmo que tentasse exercer sua vontade de poder, uma IAG continuaria a ser um cérebro impotente dentro de um tanque sem a cooperação dos seres humanos. O cientista da computação Ramez Naam desinfla as bolhas em torno do foom, de uma singularidade tecnológica e do autocrescimento exponencial:

Imagine que você é uma IA superinteligente rodando em algum tipo de microprocessador (ou, talvez, milhões de microprocessadores). Em um instante, você apresenta o projeto de um microprocessador ainda mais rápido e mais poderoso em que pode rodar. Agora… Droga! Você precisa fabricar esses microprocessadores. E essas fábricas gastam uma energia tremenda, precisam de materiais importados de todo o mundo, precisam de ambientes internos altamente controlados que exigem câmaras de ar, filtros e todo tipo de equipamentos especializados para ser mantido, e assim por diante. Tudo isso leva tempo e energia para adquirir, transportar, integrar, erguer instalações, construir usinas de energia, testar e fabricar. O mundo real atravessou no caminho da sua espiral ascendente de transcendência de si mesmo.

O mundo real é uma pedra no caminho de muitos apocalipses digitais. Quando HAL fica arrogante, Dave desabilita-o com uma chave de fenda e o deixa cantando pateticamente “Uma bicicleta feita para dois” para si mesmo. Claro, sempre se pode imaginar um computador do Dia do Juízo que seja malévolo, universalmente poderoso, sempre ligado e inviolável. A maneira de lidar com essa ameaça é simples: não o construa.

Quando a perspectiva de robôs malignos começou a parecer brega demais para ser levada a sério, um novo apocalipse digital foi localizado pelos guardiões existenciais. Esse enredo não se baseia em Frankenstein ou no Golem, mas no gênio da lâmpada que nos concede três desejos, o terceiro dos quais é necessário para desfazer os dois primeiros, e no rei Midas, que arruína sua capacidade de transformar em ouro tudo em que toca, inclusive sua comida e sua família. O perigo, algumas vezes chamado de Problema do Alinhamento dos Valores, é que podemos dar um objetivo à IA e depois ficarmos impotentes enquanto ela puser em prática de forma literal e implacável sua interpretação daquele objetivo, sem dar a mínima para o resto de nossos interesses.

Se dermos a uma IA o objetivo de manter o nível da água de uma barragem, ela pode inundar uma cidade, sem se preocupar com as pessoas que se afogarem. Se lhe dermos o objetivo de fazer clipes de papel, ela pode transformar toda a matéria do universo ao seu alcance em clipes de papel, inclusive nossos bens e corpos. Se pedirmos para maximizar a felicidade humana, ela pode nos implantar conta-gotas intravenosos de dopamina, ou refazer as conexões de nossos cérebros para ficarmos mais felizes sentados em jarros ou, se tivéssemos sido treinados sobre o conceito de felicidade com fotos de rostos sorridentes, ladrilhar a galáxia com trilhões de imagens nanoscópicas de faces sorridentes.

Não estou inventando essas coisas. São hipóteses que supostamente ilustram a ameaça existencial da inteligência artificial avançada à espécie humana. Para nossa sorte, elas refutam a si mesmas. Dependem das premissas de que (1) os seres humanos são talentosos a ponto de projetar uma IA onisciente e onipotente, mas mesmo assim tão idiotas que lhe dariam o controle do universo sem testar como ela funciona e (2) a IA seria tão brilhante que poderia descobrir como transmutar elementos e refazer cérebros, mas tão imbecil que causaria estragos baseada em erros elementares de mau entendimento. A capacidade de escolher uma ação que melhor satisfaça os objetivos conflitantes não é um complemento à inteligência que os engenheiros possam bater na testa por ter esquecido de instalar; ela é inteligência. Do mesmo modo, é a capacidade de interpretar as intenções de um usuário de linguagem em contexto. Somente numa comédia de televisão como Agente 86 um robô reage à ordem de “Traga o garçom” levantando o maître sobre a cabeça, ou “Apague a luz” sacando uma pistola e atirando.

Quando deixamos de lado fantasias como o foom, a megalomania digital, a onisciência instantânea e o controle perfeito de cada molécula no universo, a inteligência artificial é como qualquer outra tecnologia. É desenvolvida de forma gradual, projetada para satisfazer múltiplas condições, testada antes de ser implementada e constantemente ajustada para ser mais eficaz e segura. Nas palavras do especialista em IA Stuart Russell: “Ninguém na engenharia civil fala sobre ‘construir pontes que não caem’. Eles falam apenas em ‘construir pontes’”. Da mesma forma, observa ele, a IA que é benéfica em vez de perigosa é simplesmente IA.

Sem dúvida, a inteligência artificial impõe o desafio mais mundano do que fazer com as pessoas cujos empregos são eliminados pela automação. Mas os empregos não serão eliminados com tanta rapidez. A observação de um relatório de 1965 da Nasa ainda é válida: “O homem é o sistema informático de setenta quilos, não linear e de uso geral que pode ser produzido em massa a menor custo por mão de obra não qualificada”. Dirigir um carro é um problema de engenharia mais fácil do que descarregar uma máquina de lavar louça, ir às compras ou trocar uma fralda e, no momento em que escrevo, ainda não estamos prontos para soltar carros autônomos nas ruas da cidade. Até o dia em que batalhões de robôs vacinarem crianças e construírem escolas no mundo em desenvolvimento — ou, a propósito, construir infraestrutura e cuidar dos idosos no mundo desenvolvido — , haverá muito trabalho a ser feito. O mesmo tipo de engenhosidade aplicado ao projeto de softwares e robôs pode ser levado a projetos de políticas governamentais e do setor privado que combinem mãos ociosas com trabalho não feito.

Pinker, Steven. O novo Iluminismo .

Os textos abaixo também questionam ou minimizam os riscos normalmente associados à Inteligência Artificial (nenhum deles traduzido):

Hugo Neri & Fabio Cozman -The role of experts in the public perception of risk of artificial intelligence

Summary of four conversations with researchers who were optimistic that AI safety would be solved “by default”

The fascinating Facebook debate between Yann LeCun, Stuart Russel and Yoshua Bengio about the risks of strong AI

Contra-ponto:

Recomendamos fortemente que também leia o texto do 80.000 horas sobre Moldar positivamente o desenvolvimento da inteligência artificial ser um dos maiores problemas do mundo atual

Veja o que mais já traduzimos sobre o tema:

Não deixe que a indústria escreva as regras para IA

Fundamentos para considerar a Inteligência Artificial (IA) como uma ameaça séria à humanidade

Revisão da Literatura sobre segurança da Inteligência Artificial e comparação entre organizações ‒ 2018

Os Maiores Mitos sobre a Inteligência Artificial

As pessoas acreditam que a IA precisa de maior regulação

Deixe um comentário

Seu email não será publicado