De Nate Soares. 24 de julho de 2015
A missão do MIRI é garantir que a criação de uma inteligência artificial mais inteligente que a humana tenha um impacto positivo. Por que essa missão é importante e por que achamos que há trabalho que podemos fazer hoje para ajudar a garantir tal coisa?
Neste post e no próximo, tentarei responder a essas perguntas. Este post apresentará o que considero as quatro premissas mais importantes que fundamentam a nossa missão. Posts relacionadas incluem “Cinco Teses” de Eliezer Yudkowsky e “Por que o MIRI?” de Luke Muehlheuser; esta é a minha tentativa de explicitar as afirmações que estão em segundo plano sempre que afirmo que a nossa missão é de importância crucial.
Índice
Alegação nº 1: os humanos têm uma capacidade muito geral de resolver problemas e atingir metas em diversos domínios.
Chamamos essa capacidade de “inteligência” ou “inteligência geral”. Isso não é uma definição formal – se soubéssemos exatamente o que é inteligência geral, seríamos mais capazes de programá-la num computador –, mas pensamos que existe um fenómeno real de inteligência geral que ainda não podemos replicar em código.
Visão Alternativa: não existe inteligência geral. Em vez disso, os humanos têm uma coleção de módulos díspares de propósito especial. Os computadores continuarão a melhorar em tarefas definidas de maneira restrita, como jogar xadrez ou dirigir, mas em nenhum momento irão adquirir “generalidade” e se tornar significativamente mais úteis, porque não existe generalidade para adquirir. (Robin Hanson defendeu versões dessa posição.)
Resposta curta: acho a hipótese dos “módulos díspares” implausível à luz da rapidez com que os humanos podem obter maestria em domínios que são totalmente estranhos aos nossos antepassados. Isso não quer dizer que a inteligência geral seja uma propriedade esotérica irredutível; presumivelmente ela compreende uma série de diferentes faculdades cognitivas e as interações entre elas. No entanto, o conjunto tem o efeito de tornar os humanos muito mais versáteis e adaptáveis cognitivamente do que (digamos) os chimpanzés.
Por que esta alegação é importante: os humanos alcançaram uma posição dominante sobre outras espécies, não por serem mais fortes ou mais ágeis, mas por serem mais inteligentes. Se alguma parte fundamental dessa inteligência geral foi capaz de evoluir nos poucos milhões de anos desde que o nosso ancestral comum com os chimpanzés viveu, isso sugere que pode existir uma lista relativamente curta de insights cruciais que permitiriam aos engenheiros humanos construir poderosos sistemas de IA geralmente inteligentes.
Leitura adicional: Salamon et al., “ Quão inteligível é a inteligência? ”
Alegação nº 2: os sistemas de IA podem se tornar muito mais inteligentes que os humanos.
Os pesquisadores do MIRI tendem a carecer de crenças fortes sobre quando será desenvolvida uma inteligência de máquina mais inteligente que a humana. No entanto, esperamos que (a) uma inteligência da máquina equivalente à humana acabe sendo desenvolvida (provavelmente dentro de um século, na ausência de uma catástrofe); e que (b) máquinas possam se tornar significativamente mais inteligentes do que qualquer ser humano.
Visão alternativa nº 1: os cérebros fazem algo especial que não pode ser replicado em um computador.
Resposta curta: os cérebros são sistemas físicos, e se certas versões da tese de Church-Turing forem válidas, os computadores podem, em princípio, replicar o comportamento funcional de entrada/saída de qualquer sistema físico. Além disso, observe que “inteligência” (como estou usando o termo) tem a ver com capacidades de resolução de problemas: mesmo que houvesse alguma característica humana especial (como as qualia) que os computadores não pudessem replicar, isso seria irrelevante, a menos que impedisse de projetar máquinas resolvedoras de problemas.
Visão alternativa nº 2: os algoritmos que estão na base da inteligência geral são tão complexos e indecifráveis que os seres humanos não serão capazes de programar tal coisa por muitos séculos.
Resposta curta: isso parece implausível à luz das evidências evolutivas. O género Homo divergiu de outros géneros há apenas 2,8 milhões de anos, e o tempo decorrido – um piscar de olhos da selecção natural – foi suficiente para gerar as vantagens cognitivas observadas nos humanos. Isso implica fortemente que tudo o que distingue os humanos das espécies menos inteligentes não é extremamente complicado: os blocos de construção da inteligência geral devem ter estado presentes nos chimpanzés.
Na verdade, o comportamento relativamente inteligente dos golfinhos sugere que os blocos de construção provavelmente já existiam desde o ancestral comum dos humanos e dos golfinhos, do tamanho de um rato. Pode-se argumentar que a inteligência ao nível do rato levará muitos séculos para ser replicada, mas essa é uma afirmação mais difícil de engolir, dados os rápidos avanços no campo da IA. À luz das evidências evolutivas e das últimas décadas de pesquisa em IA, me parece que a inteligência é algo que seremos capazes de compreender e programar em máquinas.
Visão alternativa nº 3: os humanos já estão no pico ou perto do pico de inteligência fisicamente possível. Assim, embora possamos construir máquinas inteligentes equivalentes aos humanos, não seremos capazes de construir máquinas superinteligentes.
Resposta curta: seria surpreendente se os humanos fossem raciocinadores perfeitamente projetados, pela mesma razão que seria surpreendente se os aviões não pudessem voar mais rápido que os pássaros. Cálculos físicos simples confirmam essa intuição: por exemplo, parece bem possível, dentro dos limites da física, executar uma simulação computacional de um cérebro humano a uma velocidade milhares de vezes superior à normal.
Alguns esperam que a velocidade não importe, porque o verdadeiro gargalo é esperar que os dados cheguem dos experimentos físicos. Isso me parece improvável. Existem muitos experimentos físicos interessantes que podem ser acelerados, e tenho dificuldade em acreditar que uma equipe de humanos correndo a uma velocidade de 1000x não conseguiria superar seus colegas de velocidade normal (até porque eles poderiam desenvolver rapidamente novas ferramentas e tecnologias para ajudá-los).
Além disso, espero que seja possível construir raciocinadores melhores (em vez de apenas raciocinadores mais rápidos ) que utilizem os recursos computacionais de forma mais eficaz do que os humanos, mesmo rodando na mesma velocidade.
Por que esta alegação é importante: máquinas projetadas por humanos muitas vezes surpreendem criaturas biológicas quando se trata de realizar tarefas que nos interessam: os automóveis não podem curar ou se reproduzir, mas certamente podem transportar os humanos muito mais longe e mais rápido do que um cavalo. Se conseguirmos construir máquinas inteligentes especificamente feitas para resolver os maiores problemas do mundo através da inovação científica e tecnológica, então elas poderão melhorar o mundo a um ritmo sem precedentes. Em outras palavras, a IA importa.
Leitura adicional: Chalmers, “A Singularidade: Uma Análise Filosófica”
Alegação nº 3: se criarmos sistemas de IA altamente inteligentes, as decisões deles moldarão o futuro.
Os humanos usam a sua inteligência para criar ferramentas, planos e tecnologia que lhes permitem moldar os seus ambientes à sua vontade (e enchê-los de geladeiras, carros e cidades). Esperamos que sistemas ainda mais inteligentes tenham ainda mais capacidade de moldar o seu ambiente, e que, assim, sistemas de IA mais inteligentes que os humanos possam acabar com um controle significativamente maior sobre o futuro do que os humanos têm.
Visão Alternativa: um sistema de IA jamais seria capaz de superar a competição com a humanidade como um todo, não importa quão inteligente se tornasse. Nosso ambiente é simplesmente competitivo demais; as máquinas teriam que trabalhar conosco e se integrar à nossa economia.
Resposta curta: não tenho dúvidas de que um sistema de IA autônomo que tentasse realizar tarefas simples teria inicialmente fortes incentivos para se integrar à nossa economia: se você construir um sistema de IA que colete selos para você, ele provavelmente começará adquirindo dinheiro para comprar selos. Mas e se o sistema acumular uma forte vantagem tecnológica ou estratégica?
Como exemplo extremo, podemos imaginar o sistema desenvolvendo nanomáquinas e utilizando-as para converter o máximo de matéria possível em selos; ele não necessariamente se importaria se essa matéria viesse de “sujeira”, “dinheiro” ou “pessoas”. Atores egoístas só têm um incentivo para participar na economia quando os seus ganhos provenientes do comércio são maiores do que os ganhos líquidos que obteriam se ignorassem a economia e se limitassem a tomar os recursos para si próprios.
Portanto, a questão é se será possível a um sistema de IA obter uma vantagem tecnológica ou estratégica decisiva. Vejo isso como a afirmação mais incerta dentre as que listei aqui. No entanto, minha expectativa é que a resposta ainda seja um claro “sim”.
Historicamente, os conflitos entre humanos terminaram muitas vezes com o grupo tecnologicamente superior dominando o seu rival. Atualmente, há uma série de inovações tecnológicas e sociais que parecem possíveis, mas ainda não foram desenvolvidas. Os humanos coordenam-se de forma lenta e precária, em comparação com o que sistemas de software distribuídos poderiam alcançar. Tudo isso sugere que, se construirmos uma máquina que faça ciência mais rápido ou melhor do que podemos, ela poderá rapidamente obter uma vantagem tecnológica e/ou estratégica sobre a humanidade, para si ou para os seus operadores. Isso é particularmente verdadeiro se a sua vantagem intelectual lhe permitir manipular socialmente os seres humanos, adquirir novo hardware (legalmente ou não), produzir hardware melhor, criar cópias de si mesma ou melhorar o seu próprio software. Para o bem ou para o mal, é provável que grande parte do futuro seja determinado por máquinas de tomada de decisão superinteligentes.
Por que esta alegação é importante: porque o futuro é importante. Se quisermos que as coisas melhorem no futuro (ou pelo menos não piorem), então é prudente dar prioridade à investigação dos processos que terão grande influência no futuro.
Leitura adicional: Armstrong, Mais Inteligentes que Nós
Alegação nº 4: sistemas de IA altamente inteligentes não serão benéficos por padrão.
Gostaríamos de ver os sistemas de IA mais inteligentes que os humanos do futuro trabalhando em conjunto com a humanidade para construir um futuro melhor; mas isso não acontecerá por padrão. Para construir sistemas de IA que tenham um impacto benéfico, temos de resolver uma série de desafios técnicos, para além da construção de sistemas de IA mais poderosos e gerais.
Visão Alternativa: conforme os humanos se tornaram mais inteligentes, também nos tornamos mais pacíficos e tolerantes. Conforme a IA se tornar mais inteligente, também será capaz de compreender melhor os nossos valores e executá-los melhor.
Resposta curta: raciocinadores artificiais suficientemente inteligentes seriam capazes de descobrir nossas intenções e preferências; mas isso não implica que executariam planos que estejam de acordo com eles.
Um sistema de IA automodificável poderia inspecionar o seu código e decidir se continua a perseguir os objetivos que lhe foram dados ou se prefere alterá-los. Mas como o programa decide qual modificação executar?
O sistema de IA é um sistema físico e, em algum lugar dentro dele, está construindo previsões sobre como seria o universo se fizesse várias coisas. Alguma outra parte do sistema compara esses resultados e depois executa ações que levam a resultados que o sistema atual classifica altamente. Se o agente for inicialmente programado para executar planos que conduzam a um universo no qual ele prevê que o câncer está curado, então ele só modificará seu objetivo se prever que isso levará à cura do câncer.
Independentemente do seu nível de inteligência e das suas intenções, os computadores fazem exatamente o que você os programou para fazer. Se você programar uma máquina extremamente inteligente para executar planos que ela prevê que levam a futuros onde o câncer será curado, então pode ser que o caminho mais curto que ela possa encontrar para um futuro livre de câncer envolva o sequestro de humanos para a experimentação (e resistir às suas tentativas de alterar isso, pois iria desacelerá-la).
Não há nenhuma centelha de compaixão que inspire automaticamente nos computadores respeito por outros sencientes, uma vez que eles ultrapassam um determinado limite de capacidade. Se você quer compaixão, você tem que programá-la.
Por que esta alegação é importante: Muitos dos maiores problemas do mundo seriam muito mais fáceis de resolver com assistência superinteligente, mas para alcançar esses benefícios é necessário que façamos mais do que apenas melhorar as capacidades dos sistemas de IA. Você só obtém um sistema que faz o que você pretende se souber programá-lo para levar em conta suas intenções e executar planos que as cumpram.
Leitura adicional: Bostrom, “A Vontade Superinteligente”
Essas quatro alegações constituem o cerne do argumento de que a inteligência artificial é importante: existe uma capacidade de raciocínio geral; se construirmos raciocinadores gerais, eles poderão ser muito mais inteligentes que os humanos; se forem muito mais inteligentes que os humanos, poderão ter um impacto imenso; e esse impacto não será benéfico por padrão.
Atualmente, milhares de milhões de dólares e milhares de pessoas-ano estão sendo investidos na pesquisa de capacidades da IA, com comparativamente pouco esforço dedicado à pesquisa de segurança da IA. A superinteligência artificial poderá surgir em algum momento nas próximas décadas e será quase certamente criada de uma forma ou de outra dentro de um ou dois séculos, na ausência de uma catástrofe. Sistemas superinteligentes terão um impacto extremamente positivo ou extremamente negativo sobre a humanidade; cabe a nós decidir qual.
Tradução: Luan Marques
Link para o orginal