Incontrolável: a Ameaça da Superinteligência Artificial e a Corrida para Salvar o Mundo

Darren McKee


[Esta é a introdução do livro Uncontrollable: The Threat of Artificial Superintelligence and the Race to Save the World de Darren McKee, traduzida e publicada aqui com a autorização do autor. Esta obra se destaca por ser um grande esforço para explicar ao público leigo sobre a ameaça existencial apresentada por uma inteligência artificial mais capaz que os humanos.]


INTRODUÇÃO

“Energia que é produzida pela decomposição do átomo é um tipo de coisa muito precário. Qualquer um que espere uma fonte de poder da transformação desses átomos está falando bobagem.”

– Lorde Ernest Rutherford, 1933

“A IA com a maior probabilidade levará ao fim do mundo, mas enquanto isso, haverá grandes empresas.” 

– Sam Altman, cofundador e (atual e antigo) diretor-executivo da OpenAI, 2015

Em setembro de 1933, um dos físicos mais qualificados do mundo, o ganhador do Prêmio Nobel Lorde Ernest Rutherford, disse que extrair energia da divisão do átomo é absurdo, ridículo, que era “bobagem”. Menos de vinte anos depois, uma bomba atômica matou mais de 100.000 pessoas em Hiroshima, no Japão. Rutherford não estava apenas enganando sobre extrair energia de um átomo, mas enganado de matar. Enganado de matar por muitos milhares. Em menos de uma dúzia de anos, para dizer o mínimo. 

Como Isso Pôde Ser?

Claro que Rutherford não mandava mal nos domínios da química e da física. Entre outros feitos, ele descobriu o próton e insights fundamentais sobre a radioatividade. É razoável dizer que Rutherford sabia tanto de química e física quanto basicamente qualquer outra pessoa na Terra. Ele conhecia a química como conhecemos as nossas músicas favoritas. Mas, se não era falta de conhecimento, como é que “o pai da física nuclear” podia estar tão catastrófica e comprovadamente errado? E num período de tempo tão curto?

O Lorde Rutherford subestimou duas coisas: primeiro, a velocidade do progresso tecnológico. E segundo, os riscos de danos criados pelo progresso. Agora mesmo, a humanidade está cometendo os mesmos dois erros com a inteligência artificial (IA) que o Lorde Rutherford cometeu com as armas nucleares.

Primeiro, estamos subestimando a velocidade do progresso da IA. Apenas nos últimos doze anos, aqueles envolvidos no desenvolvimento da IA estiveram acumulando feito após feito. A IA ganhou no jogo de perguntas Jeopardy em 2011, provocou um abalo ao derrotar o campeão mundial do jogo Go em 2016, derrotou jogadores profissionais de pôquer em 2019, resolveu um problema complicado de biologia sobre como proteínas se enovelam em 2020, gerou arte premiada e ensaios de nível universitário em 2022 e passou no exame da ordem de advogados facilmente em 2023. Esses sucessos não só foram surpreendentes como foram frequentemente chocantes, até para os especialistas e profissionais da área.

A sociedade em geral também ficou chocada, com a ascensão de fantásticas criações de geradores de imagens e impressionantes respostas de chatbots. Parece que a cada dois meses, se não a cada duas semanas, há novas capacidades de IA à mostra. 

Esses sucessos da IA estão acontecendo por três razões fundamentais:

(a) aumentos exponenciais no poder computacional; (b) quantidades incríveis de dados disponíveis para treinar sistemas de IA, como textos e imagens; e (c) algoritmos em rápido melhoramento que se aproveitam tanto do poder computacional quanto dos oceanos de dados. Você pode pensar que as coisas estão se movendo rápido agora, mas elas mal começaram. Essas tendências são propensas a continuar durante anos e provavelmente irão se acelerar. A IA está prestes a remodelar as nossas vidas de maneiras que são difíceis de imaginar e num ritmo que é difícil de compreender. 

O segundo erro que a humanidade está cometendo é que estamos subestimando os riscos de danos criados pela IA avançada. Há um grande fascínio nos trilhões de dólares à disposição conforme a IA penetra os mercados financeiros, a educação, o cuidado médico, o policiamento, a arte, a imigração, as forças armadas, a infraestrutura social e os nossos relacionamentos, mas também há perigos.  

Em geral, estamos subestimando os danos que poderiam ocorrer conforme a IA se torna mais capaz, mais amplamente implementada e mais integrada ao modo como trabalhamos, vivemos e nos divertimos. Mais especificamente, estamos subestimando os danos potenciais de criar uma IA que é mais inteligente e capaz do que nós. Muitos especialistas em IA estão muito preocupados com a possibilidade de que uma IA poderosa seja muito difícil de entender, controlar ou alinhar com os nossos valores e interesses. Uma IA poderosa, desalinhada e incontrolável seria intrinsecamente perigosa para a humanidade. Demis Hassabis, fundador e diretor-executivo da grande empresa de IA Google DeepMind, advertiu que, em se tratando de uma tecnologia tão importante e poderosa quanto a IA, “É importante *NÃO* ‘mover-se rápido e quebrar as coisas’”.

Neste livro, uma IA que é mais inteligente que a maioria de nós, e às vezes vastamente mais inteligente que todos nós, é chamada de superinteligência artificial. Alguns creem que uma superinteligência artificial é uma das últimas coisas que a humanidade precisará criar, por causa de toda a capacidade que terá. No cenário utópico, a superinteligência artificial será a nossa invenção final porque resolverá todos os nossos problemas e criará um mundo melhor, de modo que não precisaremos de muito mais. No cenário distópico, a superinteligência artificial será a nossa invenção final porque destruirá a civilização por acidente, pelo uso indevido da parte de atores maliciosos ou rebelando-se.

Mas será que uma superinteligência artificial realmente resultaria ou numa utopia, ou numa distopia? Ela realmente seria tão poderosa que poderia lesar seriamente a humanidade? Porque a deixaríamos ficar tão poderosa? 

Talvez a ideia de uma superinteligência artificial ser uma ameaça à humanidade soe um tanto absurda. Ou será que soa ridí-cula… como bobagem?

Talvez, mas repetidas vezes a história nos mostrou exemplos de algo que se acreditava ser impossível realmente acontecer. Em outubro de 1903, um artigo no The New York Times disse que uma máquina voadora poderia demorar de um milhão a dez milhões de anos. Menos de dois meses depois, em 17 de dezembro, os irmãos Wright fizeram história quando levarão ao ar o seu Flyer por doze segundos. Em 1934, Albert Einstein disse à Pittsburgh Post-Gazette que “não há a mínima indicação de que [a energia nuclear] será obtenível. Significa que o átomo teria de ser despedaçado à vontade.” Dentro de uma década, ele também se provou dramaticamente errado, quando a primeira liberação controlada de energia nuclear foi atingida em 1942. Esses exemplos mostram que o que uma vez era impensável muitas vezes se torna realidade, tudo no intervalo de vários anos — ou às vezes até em alguns meses.

Ver quão rápido o impensável se torna real fornece um bom fundamento geral para termos uma mente aberta. No caso do perigo potencial da superinteligência artificial, muitos são céticos quando ouvem de tais preocupações. Não obstante, estamos vendo atualmente a “súbita” aparição de incríveis capacidades que pensávamos que demorariam anos, mesmo segundo os especialistas. Ainda em anos recentes, muitos zombavam da ideia de que a IA faria algo de criativo. Agora, o gerador de imagens MidJourney pode produzir milhões e milhões de obras de arte de alta qualidade, muito além do que artistas humanos poderiam criar, ainda que vivessem por milhares de anos. Além disso, há alguns anos, muitos pesquisadores de IA pensavam que as capacidades atuais de modelos de linguagem como o ChatGPT demorariam décadas para chegar.

As capacidades de IA que estamos vendo hoje, por mais incríveis que sejam por si sós, só estão começando. Creio que algo muito mais impensável pode bem se tornar real muito em breve: creio que a humanidade provavelmente irá criar uma superinteligência artificial dentro de dez anos e que ela poderá ser uma ameaça à civilização humana.

Superinteligência artificial existirá em dez anos? E será uma ameaça à humanidade? São alegações ousadas.

Tenho certeza?

Não, não tenho.

Mas este é o negócio: ninguém tem. Ninguém. A pessoa mais inteligente do mundo não tem, nem a pessoa mais inteligente que você conhece, nem mesmo os comentaristas mais bem-informados nas mídias sociais ou na televisão.

De fato, as pesquisas mostraram que, quanto mais popular é o comentarista, mais provável é que ele esteja errado nas suas previsões. As pessoas são atraídas por aqueles que são confiantes, mas na maior parte do tempo a abordagem razoável é ter mais humildade. Reconhecer a incerteza não é uma coisa ruim; é uma coisa boa e necessária. 

Se alguém lhe diz que você não precisa se preocupar porque não há chance nenhuma de que a superinteligência artificial irá acontecer em breve, e que não há boas razões para preocupar-se que ela venha a ser uma ameaça, ele ou ela está lhe fazendo um desserviço. O mesmo se aplica àqueles que dizem que a superinteligência artificial definitivamente acontecerá, definitivamente acontecerá em breve ou definitivamente será uma ameaça.

Simplesmente não sabemos. 

Mas isso não significa que devemos simplesmente erguer os braços e desistir. Incerteza não significa que todo resultado é igualmente provável ou improvável, ou que todas as estratégias são igualmente acertadas. De fato, todos temos extensa experiência lidando com situações em nossas vidas cotidianas em que estamos incertos no geral, mas ainda temos boas razões para crer que alguns dos resultados são mais prováveis do que outros, e para agir de acordo.

A previsão do tempo é um bom exemplo. Imagine que você queira saber se irá chover amanhã, porque acha que seria agradável fazer um piquenique. Então, você olha a previsão do tempo, e ela diz que há uma chance de chuva de 80%. Essa previsão não significa que definitivamente vai chover amanhã, mas significa, sim, que há uma chance forte o bastante de que chova para lhe dar boas razões para transferir seu piquenique para outro dia ou trazer um guarda-chuva.

Assim como uma previsão do tempo, este livro olhará para o mundo da inteligência artificial para ver se há dias tempestuosos por vir. Ele irá explorar as razões e evidências para por que uma superinteligência artificial poderia chegar dentro de dez anos e por que poderia ser uma ameaça. Você não precisa ter nenhuma base técnica em IA, ciência ou matemática para esta jornada. Mas você precisa de uma mente aberta.

Os limites da sua imaginação não são os limites do que é possível

Conforme a IA expande as suas capacidades, encaramos uma vasta gama de dificuldades, desde complexidades técnicas a impactos econômicos e sociais. Mas há outro tipo de dificuldade: uma dificuldade de imaginação. Pondo de modo simples, é muito difícil imaginar as capacidades de uma superinteligência artificial, e assim vê-la como a ameaça potencial que ela é. Para muitos de nós, histórias fantasiosas de ficção científica são o que mais prontamente vêm à mente quando pensamos em IA avançada, e isso pode fazer qualquer ameaça que ela possa apresentar parecer menos real. Não obstante, a ficção científica do passado às vezes prova ser não tão fictícia afinal: com nossos smartphones e foguetes, já estamos vivendo num mundo de ficção científica em comparação com nossos ancestrais. O desenvolvimento de uma superinteligência artificial aparentemente desalinhada e incontrolável poderia seguir esse caminho e se tornar um fato perturbador.

A situação em que estamos agora com respeito à superinteligência artificial tem muitas semelhanças com a situação que a humanidade vivenciou nos anos 1930 e na qual não reconheceu uma ameaça diferente surgindo no horizonte: armas nucleares. Por mais difícil que fosse para o público geral entender na época, um número relativamente pequeno de pessoas estava tomando decisões que mudariam para sempre a vida para o resto da humanidade. Podemos reconhecer e até apreciar que a tecnologia nuclear tenha nos trazido muitos benefícios, como novas fontes de geração de eletricidade, incríveis formas de diagnóstico e tratamento médico e talvez um dia energia limpa ilimitada por meio da fusão nuclear. No entanto, todos esses benefícios coexistem com o fato de que a humanidade está posta num perigo constante e sem precedentes.

Pode ser desagradável considerar, mas enquanto você lê isto, o mundo tem milhares de armas nucleares prontas para serem lançadas que poderiam matar milhões de pessoas. Os impactos adicionais no suprimento de alimentos devidos aos detritos a bloquear a luz solar poderiam matar bilhões. É um daqueles fatos inconvenientes que a maioria de nós ignora alegremente, mas a ameaça do apocalipse nuclear é um risco real e constante. Nosso mundo é um lugar mais perigoso e a humanidade se encontra pior por causa dela. Muitas dessas armas nucleares poderiam ser lançadas e atingir seus alvos dentro de vinte minutos.

Vinte minutos.

Isso é tão pouco tempo que chega a nos deixar pasmos.

Imagine isto: é início de noite e você teve um dia longo. Você só está buscando relaxar.

Você não está com vontade de cozinhar, então encomenda a sua pizza favorita e planeja assistir ao seu programa de comédia favorito.  

Você pensa consigo mesmo: Ah, que legal finalmente descontrair. Devo conseguir terminar um episódio enquanto espero a pizza chegar e talvez ver um segundo episódio enquanto como. Vai ser ótimo.

Assim que você começa o episódio e delibera se deve pular a introdução, um bando de pássaros é mal-interpretado por sistemas de detecção nuclear na Rússia, e os russos pensam que podem estar sob ataque pelos EUA. A Rússia está bem ciente de que deve lançar suas bombas nucleares antes de ser atingida; então só há preciosos segundos para decidir o que fazer.  

Os alarmes estão soando. As coisas estão frenéticas. É um caos. Em menos de dois minutos, decidem (incorretamente) que a ameaça é real e lançam centenas de mísseis nucleares em direção aos EUA.

Dentro de 30 segundos do lançamento russo, os Estados Unidos detectam centenas de armas nucleares sendo implementadas. Os EUA estão bem cientes de que devem lançar suas armas nucleares antes de serem atingidos; então só há preciosos segundos para decidir o que fazer.

Os alarmes estão soando. As coisas estão frenéticas. É um caos. Em menos de dois minutos, decidem (corretamente) que a ameaça é real e lançam centenas de mísseis nucleares. Esses cilindros da morte passam uns aos outros sobre o Polo Norte a 24.000 km/hora.

Cada arma nuclear atinge uma cidade povoada, matando centenas de milhões. O mundo está alterado para sempre. Você nunca terminou seu programa. Sua pizza nunca chegou.

Esse cenário pode parecer absolutamente absurdo, mas é inteiramente possível. De fato, várias vezes na história, a humanidade por pouco evitou a guerra nuclear devido a um caso semelhante de sinais ambíguos.

Apesar de protocolos e várias camadas de aprovações, a escolha de iniciar um apocalipse nuclear muitas vezes se resumiu a como uma pessoa se sentia naquele dia. Não queremos depender da boa sorte para evitar sofrer numa escala tão enorme.

A possibilidade de um intercâmbio catastrófico de armas nucleares é uma ameaça de fundo real para as nossas vidas. Você pode não pensar nela — é compreensível por que você não iria querer pensar nela —, mas a ameaça é real. Vários especialistas que estudam este problema discordam sobre o nível exato de ameaça, mas a maioria crê que há uma ameaça iminente de guerra nuclear que requer a nossa urgente atenção e maiores recursos. Além disso, como o filme Oppenheimer de 2023 retratou dramaticamente, alguns dos criadores das armas nucleares passaram suas vidas tentando reverter a ameaça que eles liberaram sobre o mundo, mas ela não pôde ser desfeita; o sino da arma nuclear não pôde deixar de ser tocado.

É assim que vivemos.

O tempo todo.

E mesmo assim… ainda vivemos. Mesmo com a iminente ameaça do holocausto nuclear, ainda vivemos. Trabalhamos, brincamos, escutamos música, construímos coisas, descobrimos, rimos com nossos filhos e amigos, lemos livros interessantes e desfrutamos de pores do sol.

Mas estamos menos seguros. Ambas as coisas podem ser verdadeiras. Pode haver uma ameaça geral de aniquilação nuclear e a vida cotidiana pode parecer tranquila, sem nenhuma indicação de nenhuma ameaça.

Com a superinteligência artificial, a situação poderia ser semelhante às tecnologias nucleares, mas com extremos ainda maiores. Podemos ainda viver nossas vidas fazendo o que queremos fazer, enquanto a superinteligência artificial nos ajuda a atingir nossas esperanças e sonhos. Uma superinteligência artificial poderia tentar nos ajudar a nos tornar as versões de nós mesmos que desejamos poder ser, e do jeito mais gentil possível. Uma mentora ideal. Professora. Apoiadora. Amiga. Financiadora. Fã. Conselheira.  

Mas poderia não fazer isso. Todos os benefícios poderiam existir em paralelo com a situação da humanidade posta num perigo sem precedentes. No futuro próximo, sistemas de IA avançados poderiam ser utilizados para criar novas armas biológicas ou para interferir com eleições por meio de um dilúvio de desinformação gerada por IA. Um sistema autônomo supercapaz e superinteligente além da nossa compreensão e controle é inerentemente perigoso. Tais sistemas de IA avançada poderiam nos lesar de modos que não podemos antecipar ou de modos que não podemos imaginar. Ela não precisa ser maliciosa: uma superinteligência artificial indiferente poderia nos debilitar ou destruir como um efeito colateral de buscar objetivos não relacionados, muito semelhante a como um vírus espalhando-se pelo mundo pode. Esses não são riscos fantasiosos ou marginais; são os riscos razoavelmente diretos e previsíveis de criar algo muito mais inteligente do que nós sem as proteções adequadas. Isso é o que estamos fazendo atualmente.

A corrida para salvar o mundo 

Há uma corrida acontecendo. Não são os 10 metros rasos nem a corrida do carro mais rápido. Não haverá nenhuma medalha olímpica ou troféu apresentado. Esta corrida não é televisionada e, de fato, com frequência está oculta à visão, mas pode ser a corrida mais importante na história.

Em termos amplos, a corrida é com nós mesmos. Por um lado, a humanidade deseja descobrir, criar e lucrar com novas tecnologias que podem enriquecer as nossas vidas. Por outro, a humanidade tem a capacidade de reconhecer perigosos riscos e modificar o percurso quando os riscos talvez excederem os benefícios. Mais especificamente, há muitas corridas em interseção ocorrendo entre empresas, grupos da sociedade civil orientados à segurança, organizações governamentais  e diferentes pesquisadores de IA.

Muitos dos acontecimentos nesta corrida têm estado em plena exposição desde que o ChatGPT da OpenAI foi lançado em novembro de 2022 e decolou para 100 milhões de usuários em menos de dois meses, tornando-o o aplicativo de consumidor de maior crescimento na história. O seguinte é apenas uma amostra do turbilhão de atividade relacionada a capacidades de IA e segurança da IA que se seguiu imediatamente. Dentro de um mês do lançamento do ChatGPT, a Google emitiu um “código vermelho” interno para acelerar o desenvolvimento dos seus produtos de IA para acompanhar o ritmo. Um mês depois, a Microsoft confirmou que investiria mais US$ 10 bilhões na OpenAI e também integraria o ChatGPT a produtos como a busca do Bing para desafiar mais a Google. Em março de 2023, o GPT-4 da OpenAI foi lançado e imediatamente demonstrou-se vastamente mais capaz do que qualquer modelo de IA anterior numa ampla gama de domínios. Menos de dez dias depois disso, o Future of Life Institute lançou uma carta aberta assinada por milhares pedindo uma pausa de seis meses em modelos de IA mais poderosos que o GPT-4 para que medidas pudessem ser dispostas para tornar qualquer desenvolvimento adicional mais seguro.

Em maio de 2023, o “Padrinho da IA” Geoffrey Hinton saiu da Google para que pudesse falar sobre os perigos da IA e admitiu que se arrepende em parte da sua obra de vida.  Posteriormente, em maio, o Senado dos EUA começou a ter audiências de supervisão bipartidárias sobre a regulamentação da IA. Em julho de 2023, a empresa de IA Antrhopic lançou o seu poderoso chatbot, Chaude 2. Também em julho, o secretário-geral das Organizações das Nações Unidas (ONU) convocou uma nova agência da ONU para abordar riscos catastróficos e existenciais da IA. Em setembro de 2023, a Amazon anunciou um investimento de US$ 4 bilhões na Anthropic para que pudesse competir melhor com a Microsoft e a Google (mas meses depois a Google investiu US$ 2 milhões na Anthropic). Também em setembro, a OpenAI expandiu as capacidades multimodais do ChatGPT, podendo ele agora “ver, ouvir e falar”. O outono setentrional de 2023 viu o Ato de Inteligência Artificial e Dados do Canadá sob discussão no Parlamento enquanto o Ato de Inteligência Artificial da União Europeia progrediu mais ainda com a sua potencial transição para lei em 2024.

Também houve um turbilhão de acontecimentos relacionados à IA envolvendo a cúpula da IA do Reino Unido no início de novembro de 2023, como: uma declaração internacional assinada por 28 países sobre a importância da segurança da IA, uma Ordem Executiva da Casa Branca da parte de Biden requerendo que empresas de IA enviem resultados de testes antes de implementar sistemas para o público e a criação de organizações destinadas à segurança da IA por vários países. Por fim, o novo modelo de última geração da Google, o Gemini, foi lançado em dezembro de 2023 com uma integração adicional planejada para 2024. E isso está longe de ser tudo que aconteceu. Foi um baita ano para a IA em 2023.

A corrida entre nações para a dominância na IA está menos à vista do público, mas contribui para o risco geral da IA. A maioria dos principais modelos de IA é de empresas situadas nos EUA, com uma potencial concorrência da China sendo um motor a mais de aceleração da IA. Nos EUA, há um grande desejo de não desacelerar nenhuma inovação para que a China não acompanhe o ritmo. Em 2022, os EUA limitaram o acesso da China a certos chips exatamente porque queriam manter a liderança, com mais restrições impostas no final de 2023. No entanto, há uma complicação nessa estratégia de embargo que não recebe suficiente atenção: quanto mais os EUA inovam, mais capaz a China se torna. Isso é verdade por duas razões. Primeiro, até que os principais laboratórios dos EUA tornem medidas de antiespionagem digital e física uma grande prioridade, os EUA podem estar fazendo muito da inovação da China por ela. Segundo, o lançamento de poderosos modelos de IA de código aberto, como o Llama 2 da Meta, permite maiores capacidades para todos. Por que gastar centenas de milhões fazendo o seu próprio modelo quando você tem acesso ao trabalho mais avançado dos outros? A acessibilidade mais ampla a tecnologias de código aberto é ótima para a inovação e para reduzir concentrações de poder, mas quando a tecnologia em questão traz riscos, essa mesma acessibilidade amplifica esses riscos consideravelmente.

Quando as nações competem para criar tecnologias que podem apresentar uma ameaça existencial à nossa espécie, ninguém ganha. A corrida para criar armas nucleares demonstrou isso: um jogador tem a tecnologia, os outros tornam-se ainda mais desesperados para adquiri-la, e é provável que eles irão. No fim, toda a humanidade está dramaticamente menos segura, inclusive o jogador que “ganhou”. Isso está prestes a acontecer novamente com a criação da IA avançada.

Finalmente, a corrida entre aqueles pesquisadores de IA que trabalham diretamente para desenvolver superinteligência artificial e aqueles que trabalham para torná-la segura também é muito preocupante, pois é bem desequilibrada: os pesquisadores de segurança da IA são superados numericamente em cem para um. O interessante é que aqueles que trabalham para aumentar as capacidades e aqueles que conscientizam sobre problemas de segurança cruciais às vezes são exatamente as mesmas pessoas. Isso ficou mais evidente quando o Center for AI Safety emitiu a seguinte declaração: “mitigar o risco de extinção da IA deve ser uma prioridade global juntamente com riscos de escala social como pandemias e guerra nuclear.” Essa declaração foi assinada por todos os três diretores-executivos das empresas de IA mais avançadas, por nomes proeminentes cruciais na área e por muitos outros acadêmicos e notáveis figuras de outros domínios. Sim, você leu corretamente: as próprias pessoas que estão liderando o ataque para desenvolver sistemas de IA mais avançados também acham que a IA é uma ameaça de nível de extinção. Em 2023, quatro empresas-líderes — Anthropic, Google, Microsoft e OpenAI — até criaram um novo corpo industrial chamado Fórum do Modelo de Fronteira para focar no desenvolvimento seguro e responsável de modelos de IA de fronteira. Não obstante, elas todas continuam a construir IAs mais capazes. 

Estes são tempos estranhos e angustiantes. Embora seja verdade que recentes iniciativas governamentais e acordos de segurança voluntários das principais empresas de IA sejam encorajadores, eles só são o início do que é necessário. Se estivéssemos mais preparados e tivéssemos percebido corretamente os riscos de sistemas de IA avançados anos atrás, não estaríamos nos apressando para implementar diretrizes e regulamentações agora para acompanhar anos de progresso (ainda) em aceleração.

Apesar de os jogadores-chave reconhecerem riscos graves da IA, alguns ainda acham que nada há para com o que se preocupar. Eles creem que o estado-padrão de algo como uma superinteligência artificial será seguro. Sério? Desde quando algo já foi seguro por padrão? Basicamente tudo que a humanidade já construiu começou perigoso e se tornou mais seguro com o tempo. Os carros não começaram com cintos de segurança, airbags e freios ABS; isso foi acrescentado com o tempo para melhorar a segurança. O problema com a superinteligência é que as consequências são muito maiores do que acidentes de carro, e se não acertarmos com a segurança na primeira vez, podemos não ter uma segunda chance.

A superinteligência artificial está chegando; ela pode ser incontrolável; não estamos preparados

Toda essa conversa de ameaças da IA avançada pode parecer demais, dada a quantidade de outros desafios que já encaramos, com muitos acontecendo rápido demais e numa escala grande demais para serem prontamente entendidos. As reações de surpresa e inquietação com relação a tecnologias como o ChatGPT a transformar as nossas vidas e sociedades mostram que estamos despreparados para capacidades de IA mais avançadas. Estamos despreparados econômica e social, mas também espiritual e emocionalmente.

Mas não podemos deixar o nosso estado atual de perplexidade nos dissuadir de olhar para os grandes desafios que poderíamos encarar no futuro muito próximo e de nos preparar para eles. Atualmente não sabemos como controlar uma superinteligência artificial ou garantir que ela respeite nossas vidas e interesses. Não sabemos quando sistemas superinteligentes surgirão, se serão seguros ou como impedir que eles sejam desenvolvidos se não forem. Nem sequer começamos um plano para como uma superinteligência artificial deve ser melhor utilizada, se sequer for possível criar uma. 

 Essas são as questões mais importantes que a humanidade teve de encarar até agora. Precisamos encará-las urgentemente ao melhor das nossas capacidades. Temos que trabalhar juntos agora mesmo para lidar com problemas cruciais não resolvidos para garantir que criemos uma superinteligência artificial que seja benéfica. Precisamos de mentes curiosas e engajadas com uma diversidade de experiências para possibilitar inovação para a IA segura.

Conhecimento é poder. Conhecimento sobre o que pode acontecer no seu futuro é poder também. Desse modo, é importante que você tenha uma opinião informada sobre as promessas e perigos da superinteligência artificial para que possa tomar atitudes efetivas. Caso contrário, como provavelmente é o caso agora mesmo, haverá um pequeno grupo de pessoas em grande parte decidindo o impacto sobre as nossas vidas. As decisões que elas tomarem nos próximos anos podem ter consequências muito maiores. Se você não se envolver com as questões em torno da IA, elas decidirão o seu futuro por você. Agora é a hora de fazer sérios esforços para criar um futuro que seja tão seguro quanto possível e que beneficie a todos.

Sérios esforços são necessários porque a escala dos impactos da IA será tão grande. Muitas analogias serão criadas para comunicar o impacto da IA com a significância adequada: alguns dizem que terá um impacto tão grande na nossa civilização quanto o advento da eletricidade; outros dizem que a IA será tão significativa quanto o petróleo; ainda outros dizem que é “o novo fogo”, destacando o seu poder, mas também o seu perigo.  

Se IA é fogo, então os recentes acontecimentos rápidos e impressionantes nas capacidades da IA fizeram disparar os detectores de fumaça da humanidade. Seremos envolvidos pelas chamas? Devemos apertar o alarme de incêndio? É isso que devemos trabalhar para descobrir.

Talvez haja só um pouco de fumaça, nada de preocupante, e simplesmente signifique que o jantar está pronto. Ou talvez os incríveis acontecimentos na inteligência da IA sejam mais como um foguinho: com a atenção correta, eles podem ser utilizados para aquecer, para iluminar nossas vidas ou até para assar marshmallows. 

Mas é possível que o foguinho da IA de hoje se desenvolva para um inferno incontrolável de superinteligência como nada que já vimos, um que destruirá o nosso ar, os nossos lares e as nossas vidas.

Não consigo pensar num problema mais importante para abordar.

Espero que você se junte a mim para resolvê-lo.

Visão Geral de Alto Nível do Livro 

O resto de Incontrolável está separado em três partes principais, com doze capítulos. 

Parte I: O que Está Acontecendo?

Esta primeira parte fornece um contexto e definições para termos fundamentais relativos à IA. Cada um dos quatro capítulos fornece um degrau para o próximo. Tomados em conjunto, estes capítulos exploram como poderosos sistemas de IA avançada poderiam ser e como eles poderiam ser nocivos.

O Capítulo 1 examina o poder da inteligência por meio do seu papel na música ao vivo e na confecção de biscoitos. Esta seção também explora a gama da inteligência e como é difícil entender quão alto e essa gama pode chegar. 

O Capítulo 2 examina a inteligência artificial como um conceito da tecnologia. O capítulo descreve o que é IA, como geradores de imagem e modelos de linguagem funcionam, riscos de dano e como não entendemos plenamente o que está acontecendo nesses sistemas de IA. 

O Capítulo 3 define inteligência geral artificial como um sistema que pode completar tarefas intelectuais a um nível humano. Ele desembrulha partes cruciais da definição para aumentar a compreensão. É brevemente discutido se a IA substituirá os trabalhadores humanos. 

O Capítulo 4 define superinteligência artificial como um sistema que pode realizar tarefas intelectuais a um nível de especialista ou acima disso, muitas vezes muito acima. Também discute sobre traços cruciais de uma superinteligência artificial, como supervelocidade, superinsight e supercapacidade.

Parte II: Quais São os Problemas?

Esta segunda parte consiste em seis capítulos e fornece as principais razões pelas quais a superinteligência artificial apresenta um risco à humanidade.

O Capítulo 5 utiliza uma série de figuras para demonstrar que estamos vivendo num mundo de mudança e progresso tecnológico crescentes. Fornece evidências para mostrar que as capacidades da IA provavelmente aumentarão nos anos vindouros.

O Capítulo 6 explora a questão sobre quando sistemas de IA avançada podem chegar. Investiga como a previsão é inerentemente difícil, que especialistas em IA discordam sobre as linhas do tempo e o que devemos fazer quando os especialistas discordam.

O Capítulo 7 apresenta o problema do alinhamento da IA utilizando as Leis da Robótica de Isaac Asimov para ilustrar as dificuldades de elaborar regras simples que garantiriam que a IA esteja alinhada com os nossos valores e objetivos.

O Capítulo 8 examina o problema do alinhamento com mais detalhes, destacando questões associadas a consequências não pretendidas. Mostra que sistemas de IA podem não se alinhar com nossos valores e objetivos por acidente, por seu próprio comportamento de busca de poder ou pelo uso indevido.

O Capítulo 9 ilustra como é difícil manter controle sobre as nossas tecnologias porque abrimos mão de controle em troca dos benefícios que elas trazem. Também descreve como será difícil controlar sistemas de IA avançada quando estiverem integrados à nossa sociedade e vidas.

O Capítulo 10 discute sobre possíveis riscos associados à superinteligência artificial. Discute sobre as limitações de avaliar uma tecnologia sem precedentes, examina diferentes sinais de risco de IA avançada e como ir em frente apesar da incerteza. Melhor estarmos preparados do que ser pegos desprevenidos.

A Parte II possui muita informação; então podemos usar o acrônimo SPARC (faísca) para nos ajudar a nos lembrar dos principais pedaços do perigoso quebra-cabeça da IA.   

  • O progresso da IA está acontecendo incrivelmente Sem delonga. 
  • As capacidades dos modelos de IA estão cada vez mais Poderosas. 
  • Não sabemos como Alinhar os modelos de IA com os nossos valores nem sequer quais esses valores devem ser. 
  • Aumentar as capacidades da IA são Riscos por causa dos três problemas acimas e porque 
  • não sabemos como Controlar a superinteligência artificial.

Parte III: O que Podemos Fazer?

A parte final do livro examina o que podemos fazer a respeito da ameaça da superinteligência artificial. 

O Capítulo 11 defende que precisamos de um projeto monumental para a segurança da IA. Descreve oito propostas para capacitar a inovação na segurança da IA.

O Capítulo 12 fornece sugestões sobre o que você pessoalmente pode fazer para aumentar a segurança da IA. Termina com uma nota esperançosa. Podemos tomar uma atitude para tornar o mundo mais seguro.


Tradução: Luan Marques

Deixe um comentário