Objetivo da Sessão
Como observado anteriormente, mesmo que alguns governos aprovem excelentes regulamentações da IA, os desenvolvedores de IA em países que não têm proteções adequadas ainda podem causar danos globais. Na semana passada, estudamos uma abordagem relativamente orientada para a competição para mitigar isso: garantir que os países com regulamentações da IA adequadas liderem em IA e que usem essa liderança para reduzir os riscos de desenvolvimento de IA não regulamentado. Esta semana, estudaremos uma abordagem mais orientada para a cooperação: os Estados poderiam estabelecer acordos internacionais sobre regulamentos de segurança da IA. (Essas duas abordagens são complementares. Por exemplo, os governos poderiam cooperar com os Estados que compartilham um interesse em pôr proteções na IA, garantindo que essa “coalizão cautelosa” tenha uma vantagem sobre os Estados que não têm esse interesse).
Historicamente, os acordos internacionais assumiram muitas formas, e podemos imaginar uma gama igualmente ampla de possibilidades para acordos sobre a IA. Eles poderiam envolver apenas dois estados, uma variedade de estados com ideias semelhantes ou um grande número de estados. Eles poderiam surgir por meio de uma cooperação entusiástica ou por meio de alguns Estados usarem sua influência para incentivar outros a participar. Podem ser formais ou informais. Os Estados podem esperar que outros cumpram devido ao conhecimento comum dos riscos da IA ou devido a procedimentos formais para verificar a conformidade. (Claro, tudo isso não é tudo ou nada.) As leituras desta semana enfatizam um contexto mais amplo sobre a diplomacia internacional, e também como a aplicação/verificação do cumprimento dos acordos de segurança de IA pode ser confiável e direcionada de forma restrita, assim como pode preservar a privacidade1.
Até o final da semana, você deve ser capaz de:
- Descrever abstratamente uma proposta de verificação que preserva a privacidade sobre o cumprimento das regras de desenvolvimento de IA em larga escala.
- Identificar as ferramentas políticas que os governos têm usado historicamente para a não proliferação de outras tecnologias, bem como os resultados desses esforços de não proliferação.
- Explicar vários conceitos relevantes para as relações internacionais, como o modelo político burocrático, jogos de garantia e ganhos relativos.
Notas
1. Métodos confiáveis identificam consistentemente atividades nocivas, permitindo uma intervenção oportuna. Métodos direcionados de forma restrita distinguem entre atividades de IA aceitáveis e inaceitáveis, permitindo que atividades de IA benéficas continuem, enquanto as excessivamente arriscadas não continuam. Os métodos que preservam a privacidade evitam revelar informações confidenciais de indivíduos, empresas ou governos.
Publicado originalmente em 2023 aqui.
Autor: BlueDot Impact
Tradução: Luan Marques