Visões Gerais de Alguns Modelos Básicos de Governos e Cooperação Internacional

Os governos e a cooperação internacional podem ser cruciais para ajudar a reduzir os riscos e obter os benefícios da IA. Para ajudar a informar os leitores que são relativamente novos em alguns tópicos relacionados, este documento compila breves visões gerais em vídeo de alguns modelos básicos/introdutórios1 relacionados a governos, problemas de coordenação e segurança internacional. Esperamos que muitos leitores já estejam familiarizados com alguns desses tópicos sugerimos que você examine toda a lista de links abaixo e apenas assista às introduções vinculadas a quaisquer tópicos com os quais ainda não esteja familiarizado.

Modelos

1. Como funcionam os governos (focado nos EUA):

2. Problemas de coordenação e formas de resolvê-los

3. Conceitos de segurança internacional

Algumas aplicações potenciais para a governança da IA

(Esta lista é provisória e incompleta). 

1. Na política

  • Sob várias teorias da mudança para a IA envolvendo o governo dos EUA, o apoio amplo (especialmente bipartidário) dos formuladores de políticas dos EUA é crucial.
    • Para que os EUA aprovem qualquer legislação que regulamente a IA, seria necessário apoio bipartidário significativo (60/100 senadores) no Senado dos EUA (a menos que o fillibuster (NT: prolongamento de debate para atrasar ou bloquear votação) seja eliminado, caso em que o apoio partidário sólido pode ser suficiente, embora tal legislação possa ser descartada após um mudança de poder).
    • Para que os EUA ratifiquem qualquer tratado formal sobre a IA, seria necessário um forte apoio bipartidário no Senado dos EUA (67/100 senadores).
  • Agências governamentais e organizações não governamentais interessadas (especialmente as ricas) terão muita influência nas perspectivas e na forma final de qualquer ação governamental importante relacionada à IA.
    • Como resultado, o pragmatismo político pode exigir uma conciliação entre os objetivos das políticas e os interesses dessas organizações, como a criação de regulamentação para visar especificamente atividades de IA de alto risco (em vez de regulamentar muitas atividades de baixo risco apenas por precaução).

2. Em incentivos

  • Se o desenvolvimento de uma IA insegura envolve os jogadores e os incentivos de um dilema do prisioneiro, será necessário mudar a situação estratégica (p. ex., dissuadindo a deserção) para evitar resultados ruins.
  • Se o desenvolvimento de IA insegura envolve os jogadores e os incentivos de um jogo de garantia, os atores relevantes terão incentivos para sinalizar com credibilidade sua cooperação, e a garantia suficientemente bem-sucedida causará cooperação mútua.
  • Desenvolvedores de IA ou países podem ter dificuldade em se comprometer de maneira confiável com o uso da IA ​​para benefício mútuo se forem os primeiros a desenvolver certos avanços na IA.
    • Isso provavelmente tornará mais difícil mitigar dinâmicas competitivas “em que o vencedor leva tudo”, exceto talvez (especulando ambiciosamente) por meio de projetos de IA controlados em conjunto (uma vez que as instituições de compartilhamento de poder são dispositivos de compromisso clássicos e extraordinariamente resilientes).
  • A preocupação dos Estados com ganhos relativos (e perdas relativas) será um incentivo influente nas negociações relacionadas à IA.
    • Por exemplo, essa preocupação pode tornar os Estados mais relutantes em concordar em se abster de certos projetos de desenvolvimento de IA ou em compartilhar o acesso à IA.

3. Outros

  • Se empresas privadas ou governos se envolverem unilateralmente em atividades de IA globalmente significativas, eles podem ter dificuldade ao tentar manter essas atividades em segredo dos principais governos, uma vez que os principais governos possuem extensas comunidades de inteligência.
    • Isso pode dificultar a ação unilateralista impopular e, ao mesmo tempo, facilitar a verificação do cumprimento dos acordos cooperativos.
  • Unilateralismo e multilateralismo (bem como abordagens intermediárias como bilateralismo e plurilateralismo) são abordagens potenciais de nível alto para governar a IA.
  • Os efeitos de aplicações particulares da IA (p. ex., geração de conteúdo, manobras de drones) dependerão em parte de seu equilíbrio entre ataque e defesa – o quanto eles facilitam os usos defensivos em relação aos usos ofensivos.
    • Não há garantia de que os avanços da IA ​​sempre favoreçam aplicações ofensivas.

Notas

[1^]: Estamos usando “modelo” em um sentido amplo (p. ex., não necessariamente formal/quantitativo).

[2^]: Por anedotas, esse modelo parece ser amplamente aceito por experientes profissionais de políticas dos EUA, sugerindo que está mais ou menos correto.

[3^]: Esse vídeo discute sobre o equilíbrio ataque-defesa das guerras em geral. Também podemos aplicar o conceito de defesa-ataque a determinadas ações ou tecnologias (p. ex., quanto a publicação de informações sobre alguma vulnerabilidade de software ajuda os atores ofensivos em relação aos atores defensivos?).


Publicado originalmente em 2023 aqui.

Autor: BlueDot Impact

Tradução: Luan Marques

Deixe um comentário