Um risco de IA é um risco catastrófico ou existencial decorrente da criação de inteligência artificial avançada (IA).
Os desenvolvimentos em IA têm o potencial de permitir que pessoas em todo o mundo se desenvolvam de maneiras até então inimagináveis. Esses desenvolvimentos também podem fornecer à humanidade ferramentas para lidar com outras fontes de risco.
Apesar disso, a IA também apresenta seus próprios riscos. Os sistemas de IA às vezes se comportam de maneiras que surpreendem as pessoas. No momento, esses sistemas geralmente são limitados em suas capacidades – por exemplo, eles são excelentes no jogo chamado Go, ou em minimizar o consumo de energia em uma instalação de servidores, mas não podem realizar outras tarefas.
Se as pessoas projetarem uma inteligência de máquina que seja um raciocinador geral suficientemente bom ou ainda melhor em raciocínio geral do que as pessoas são (podendo ser chamado também de superinteligência), pode tornar-se difícil para os agentes humanos interferirem no seu funcionamento. E se essa IA se comportar de uma maneira que não reflita os valores humanos, ela pode representar um risco real para a humanidade. Tal inteligência de máquina pode usar sua superioridade intelectual para desenvolver uma vantagem estratégica decisiva. Se seus objetivos forem incompatíveis com o florescimento humano, ela pode vir a representar um risco existencial.
Observe que a IA pode representar um risco existencial sem ser senciente, ganhar consciência ou ter qualquer má vontade em relação à humanidade.
Leitura adicional
Bostrom, Nick (2014) Superinteligência: Caminhos, Perigos, Estratégias, Oxford: Oxford University Press. Oferece uma análise detalhada dos riscos apresentados pela IA.
Christiano, Paul (2019) Como é o fracasso, LessWrong, 17 de março.
Dewey, Daniel (2015) Três áreas de pesquisa sobre o problema de controle de superinteligência, Global Priorities Project, 20 de outubro. Fornece uma visão geral e leitura sugerida em risco de IA.
Karnofsky, Holden (2016) Riscos potenciais da inteligência artificial avançada: a oportunidade filantrópica, Open Philanthropy, 6 de maio. Explica por que o Open Philanthropy Project considera os riscos da IA como uma área que vale a pena explorar.
Dai, Wei & Daniel Kokotajlo (2019) As principais fontes de risco de IA? AI Alignment Forum, 21 de março. Uma tentativa de listar todas as fontes significativas de risco de IA.