Curso de Governança da IA – Texto Introdutório da Semana 6

Semana 6: Fechando Lacunas Regulatórias por meio de Acordos Internacionais

Como mencionado anteriormente, ainda que alguns governos promulguem excelentes regulamentações de IA, os desenvolvedores de IA em países que carecem de proteções adequadas ainda podem causar danos globais. Na semana passada, estudamos uma abordagem relativamente adversária para mitigar isso: a não proliferação. Esta semana, estudaremos uma abordagem mais orientada à cooperação: os Estados poderiam estabelecer acordos internacionais sobre regulamentações de segurança da IA. (Essas duas abordagens são complementares. Por exemplo, os governos poderiam cooperar com Estados que compartilham um interesse em estabelecer proteções para a IA, ao mesmo tempo em que retardam a proliferação de capacidades avançadas de IA para além dessa “coalizão cautelosa”.)

Historicamente, os acordos internacionais assumiram muitas formas, e podemos imaginar uma gama de possibilidades igualmente ampla para acordos sobre IA. Eles podem envolver apenas dois Estados, alguns Estados com mentalidades semelhantes ou muitos Estados. Eles podem surgir através de uma cooperação entusiasmada, ou através de alguns Estados usarem sua influência para incentivar outros a participar. Eles podem ser formais ou informais. Estados podem esperar que outros cumpram devido ao conhecimento comum dos riscos da IA, ou por causa de procedimentos formais para verificar o cumprimento. (É claro que tudo isso está num continuum.) As leituras desta semana enfatizam o contexto mais amplo da diplomacia internacional, e também o modo como a execução/verificação do cumprimento de acordos de segurança da IA podem ser confiáveis, e direcionadas de um modo restrito, ao mesmo tempo que preserva a privacidade.1


1. Métodos confiáveis identificam de modo consistente atividades prejudiciais, permitindo uma intervenção oportuna. Métodos direcionados de um modo restrito distinguem entre atividades de IA aceitáveis e inaceitáveis, permitindo que atividades de IA benéficas continuem enquanto aquelas excessivamente arriscadas não o fazem. Métodos que preservam a privacidade evitam revelar informações sensíveis de indivíduos, empresas ou governos.

Até o final da semana, você deve ser capaz de:
  • Descrever, em um nível alto, uma proposta para a verificação preservadora de privacidade da conformidade com regras sobre o desenvolvimento de IA em larga escala.
  • Identificar ferramentas políticas que os governos historicamente utilizaram para a não proliferação de outras tecnologias, bem como os resultados desses esforços de não proliferação.
  • Explicar vários conceitos relevantes para as relações internacionais, como o modelo da política burocrática, jogos de garantia e ganhos relativos.

Recursos (1 h 41 min)

O que é preciso para pegar uma chinchila? Verificação de regras no treinamento de redes neurais de larga escala por meio do monitoramento de computação de Yonadav Shavit (2023) [Artigo]

Tempo estimado: 27 min

Apenas leia até e incluindo o início da seção 3 e a seção 7

Este artigo propõe um sistema de alto nível para a verificação eficiente e preservadora de privacidade da conformidade com regulamentações de desenvolvimento de IA. Observe que isso não significa que o problema da verificação esteja resolvido; ainda não está claro se todas as partes desta proposta podem ser implementadas.

Um tour pelas tecnologias criptográficas emergentes de Ben Garfinkel (2021) [Relatório]

Tempo estimado: 22 min

Apenas leia desde o início da seção 2 até o final da seção 2.5, bem como a seção 2.11

Este relatório introduz alguns métodos criptográficos clássicos, que expandem o que é possível em termos de verificação da conformidade (que preserve a privacidade).

Estudos de caso históricos de governança tecnológica e acordos internacionais da BlueDot Impact (2023) [Artigo]

Tempo estimado: 30 min

A governança internacional de IA pode ter lições a aprender com os históricos do controle de armas, outras tecnologias de propósito geral e tentativas de formar tratados ambientais. Estes trechos compilados resumem esses históricos, enfatizando as implicações para a IA. Embora encorajemos a leitura de tudo isso, os leitores com pouco tempo podem desejar focar nas duas primeiras fontes compiladas, que discutem o controle de armas nucleares.

Visões gerais de alguns modelos básicos de governos e cooperação internacional da BlueDot Impact (2022) [Vídeo]

Tempo estimado: 20 min

Leia mais sobre os tópicos que despertam seu interesse. O tempo de leitura é flexível, variando entre 5 e 180 minutos.

Este documento, criado para este curso, compila breves visões gerais em vídeo de alguns modelos básicos/introdutórios de governos, problemas de coordenação e segurança internacional.

(Leitura opcional) Deter a Proliferação Nuclear: A Importância das Proteções da AIEA (Agência Internacional de Energia Atômica) – Capítulo 1: “O regime de não proliferação nuclear” de M. Rosenthal e WM Stern (2019)

Exercícios


Tradução: Luan Marques

Link para o original

Deixe um comentário