Curso de Governança da IA – Texto Introdutório da Semana 5

Semana 5: Fechar as Lacunas Regulatórias por meio da Não Proliferação

Ainda que alguns governos promulguem excelentes regulamentações para a IA, os desenvolvedores de IA em países que não estabelecem proteções adequadas ainda podem causar danos globais. Esta semana e a próxima, consideraremos: como os formuladores de políticas podem se proteger disso? Duas abordagens (complementares) são: (i) retardar a proliferação de capacidades avançadas de IA além dos países com proteções adequadas (após alguns países estabelecerem tais proteções); e (ii) alcançar acordos nos quais vários governos implementem proteções adequadas1. Essas medidas poderiam dar a laboratórios de IA regulamentados mais (e, esperamos, suficiente) tempo para desenvolver métodos de segurança e tecnologias defensivas cruciais. Isso poderia reduzir os riscos das implementações de IA em qualquer país2. Além dessas abordagens, as regulamentações domésticas em qualquer país poderiam ter influência internacional, criando incentivos econômicos e estabelecendo exemplos.

Esta semana, estudaremos a primeira das abordagens acima: a não proliferação. Em particular, vamos nos concentrar em algumas alavancas políticas que podem ajudar a alcançar isso. Observe que também existem potenciais limitações e desvantagens na abordagem da não proliferação: pode ser difícil prever quais estados estabelecerão proteções adequadas para a IA3; acelerar alguns desenvolvedores de IA pode deixar menos tempo para o desenvolvimento de métodos de segurança; e abordagens adversárias à política de IA podem motivar contrainvestimentos e (se uma liderança for mantida por meio de ações governamentais agressivas) potencialmente levar a conflitos internacionais. Por esses motivos, alguns veem a não proliferação como uma opção de reserva, para casos em que a cooperação falhar.


1. Outra maneira de formular essas duas abordagens é: (i) fazer com que uma determinada “coalizão cautelosa” tenha uma grande vantagem, e (ii) expandir a “coalizão cautelosa”.

2. Os formuladores de políticas, sem dúvida, não podem confiar que países sem proteções adequadas nunca implementem IA avançada, pois isso se torna mais fácil com o tempo. (Torna-se mais fácil porque, em horizontes temporais mais longos, os requisitos de hardware para produzir IA avançada provavelmente diminuirão. Isso ocorre porque os pesquisadores encontram maneiras mais eficientes de usar o hardware de IA e porque, como alternativa para desenvolver rapidamente IA com grandes quantidades de hardware de IA de ponta, as pessoas podem usar quantidades menores de hardware de qualidade inferior, embora isso leve (muito) mais tempo.) Em vez de confiar que países sem proteções adequadas nunca sejam capazes de desenvolver IA avançada, os formuladores de políticas podem apostar em usar a liderança de seus países para reduzir os riscos dos desenvolvimentos de IA de outros países, (i) desenvolvendo e compartilhando métodos de segurança, (ii) avaliando e demonstrando riscos e (iii) implementando medidas defensivas. No entanto, isso também não é uma aposta segura, já que talvez essas ações levem mais tempo do que a liderança cautelosa dos países permite. (Infelizmente, não estamos cientes de nenhuma estratégia para a segurança da IA que seja uma aposta segura.)

3. Até meados de 2023, nenhum país importante estabeleceu regulamentações focadas nos riscos de sistemas de IA avançados. No futuro, ainda não está claro quais países estabelecerão proteções adequadas para a IA. Por enquanto, os pesquisadores, laboratórios e defensores da segurança da IA estão principalmente concentrados nos EUA (e no Reino Unido). No entanto, até meados de 2023, a maioria dos Estados (incluindo os EUA e o Reino Unido) ainda não aprovou regulamentações importantes focadas na IA. Além disso, desenvolvimentos futuros na IA (como demonstrações mais claras do risco da IA ou do seu potencial) podem mudar drasticamente a receptividade de vários países à regulamentação de segurança da IA, em qualquer direção. Novas administrações também.


Até o final da semana, você deve ser capaz de:
  • Explicar por que a não proliferação é considerada importante para alcançar proteções internacionais para a IA.
  • Explicar como várias ferramentas políticas poderiam ser usadas por governos com (futuras) regulamentações de IA adequadas para contribuir para a não proliferação. Abordaremos:
    • Controles de exportação
    • Imigração
    • Segurança da informação / publicações seletivas
    • Monitoramento global
  • Identificar três tipos de ações pelas quais os principais laboratórios de IA podem alavancar sua tecnologia para avançar na segurança da IA, como, por ex.:
    • Desenvolver métodos de segurança
    • Avaliar e demonstrar riscos
    • Implementar tecnologias defensivas
  • Avaliar se os EUA têm ou não uma liderança tangível e sustentável no desenvolvimento de IA globalmente.

Recursos (cerca de 1 h 41 min)

Cartilha sobre chips de IA e governança da IA da BlueDot Impact (2023) [Artigo]

Tempo estimado: 20 min

Este guia introdutório explica o que são “chips de IA” e por que eles são importantes para a governança da IA.

Em suma, o argumento será que grandes números de chips de IA são um ingrediente crucial e governável do desenvolvimento de IA de fronteira e, portanto, os chips de IA podem ser aproveitados para governar o desenvolvimento de IA de fronteira.

Introdução à governança computacional de Lennart Heim (2023) [Vídeo]

Tempo estimado: 36 min

Enquanto o guia acima se concentra na razão pela qual os chips de IA podem ser aproveitados para governar o desenvolvimento de IA de fronteira, esta palestra principalmente apresenta opções potenciais para governar os chips de IA.

O estado da IA em vários países – uma visão geral de Lizka Vaintrob (2023) [Artigo]

Tempo estimado: 20 min

Para avaliar a viabilidade de várias possíveis coalizões internacionais liderarem na IA, é útil saber onde diversos países se encontram atualmente. Este recurso compilou algumas pesquisas sobre o assunto. A pesquisa provavelmente sugere que os EUA têm atualmente uma liderança significativa e plausivelmente estável na IA.

Corrida num campo minado: o problema da implementação de IA de Holden Karnofsky (2022) [Blog]

Tempo estimado: 18 min

Alguns aspectos deste artigo são especialmente relevantes: o artigo propõe alavancas políticas adicionais para a não proliferação: compartilhamento seletivo de informações (incluindo segurança da informação) e monitoramento global. Também descreve como atores responsáveis podem usar suas lideranças para se preparar para uma posterior proliferação: desenvolvendo métodos de segurança, avaliando e demonstrando riscos, e implementando tecnologias defensivas.

Vencendo a competição por talentos técnicos de Remco Zwetsloot (2021) [Vídeo]

Tempo estimado: 5 min

De uma perspectiva orientada à competição, este vídeo do Center for Strategic and International Studies argumenta que a política de imigração é uma alavanca poderosa para melhorar a competitividade nacional (dos EUA) em tecnologia.

(Leitura opcional) Computação e IA transformadora – lista de leitura de Lennart Heim e Konstantin Pilz (2023) [Lista de recursos]

Esta é uma lista de leitura compilada pelo especialista em governança computacional Lennart Heim. Use-a para se aprofundar na governança computacional, se você estiver interessado neste tópico.


Tradução: Luan Marques

Link para o original

Deixe um comentário