Curso de Governança da IA – Texto Introdutório da Semana 5

Objetivo da Sessão

Mesmo que alguns governos aprovem excelentes regulamentações de IA, os desenvolvedores de IA em países que não estabelecem proteções adequadas ainda podem causar danos globais. Nesta semana e na próxima, vamos considerar: como os formuladores de políticas podem se proteger disso? Duas abordagens (complementares) são: (i) garantir que os desenvolvedores de IA regulamentados tenham grandes vantagens (p. ex., acesso ao melhor hardware de IA) sobre os desenvolvedores em países que carecem de proteções adequadas1; e (ii) chegar a acordos nos quais vários governos implementem proteções adequadas2. Cada uma dessas medidas poderia dar aos laboratórios de IA regulamentados mais (e, espera-se, o suficiente) tempo para desenvolver métodos cruciais de segurança e tecnologias defensivas. Isso poderia reduzir os riscos de implementações de IA em qualquer país3.

Nesta semana, estudaremos a primeira das abordagens acima: garantir que os desenvolvedores de IA regulamentados tenham grandes vantagens sobre os desenvolvedores em países que carecem de proteções adequadas. Em particular, estudaremos alguns fatores de influência política que podem ajudar a alcançar isso, bem como o grau em que vários países já têm vantagens/lideranças em IA (aproximadamente em meados de 2023). Observe que também há possíveis limitações e desvantagens nessa abordagem: pode ser difícil prever quais estados estabelecerão proteções adequadas à IA; acelerar alguns desenvolvedores de IA pode deixar menos tempo para desenvolver métodos de segurança; e tentar tirar vantagem dos desenvolvedores de IA de alguns países pode motivar contrainvestimentos e (se uma liderança for mantida por meio de ações governamentais agressivas) potencialmente levar a um conflito internacional.

Até o final da semana, você deve ser capaz de:

  • Explicar por que a cadeia de suprimentos de chips de IA cria oportunidades plausíveis para os governos influenciarem o desenvolvimento de IA na fronteira em todo o mundo, sem exigir coordenação global
  • Descrever várias ferramentas políticas que os governos com (futuras) regulamentações de IA adequadas poderiam usar, para evitar serem superados por governos que não concordam em estabelecer tais barreiras
  • Identificar três tipos de ações pelas quais os principais laboratórios de IA podem aproveitar sua tecnologia para promover a segurança de IA.

Notas

1. Observe que ainda não está claro quais países estabelecerão proteções de IA adequadas. Por enquanto, os pesquisadores, laboratórios e defensores da segurança de IA estão concentrados principalmente nos EUA (e no Reino Unido). No entanto, em meados de 2023, a maioria dos estados (incluindo os EUA e o Reino Unido) ainda não aprovou os principais regulamentos focados na IA. Além disso, desenvolvimentos futuros em IA (como demonstrações mais claras do risco da IA ou do potencial da IA) podem mudar drasticamente a receptividade de vários países à regulamentação de segurança de IA, em qualquer direção. Assim como novas administrações.

2. Outro enquadramento para essas duas abordagens é: (i) fazer uma dada “coalizão cautelosa” ter uma grande vantagem e (ii) expandir a “coalizão cautelosa”.

3. Sem dúvida, os formuladores de políticas não podem confiar em países sem proteções adequadas que nunca implementam IA avançada, pois essa implementação é facilitada com o tempo. (É facilitada porque, em horizontes temporais mais longos, os requisitos de hardware para produzir IA avançada provavelmente cairão. Isso ocorre porque os pesquisadores encontram maneiras mais eficientes de usar hardware de IA e porque como alternativa ao desenvolvimento rápido de IA com grandes quantidades de corte hardware de IA de última geração as pessoas podem optar por usar quantidades menores de hardware de pior qualidade, embora isso demore (muito) mais.) Em vez de confiar que países sem as proteções adequadas jamais sejam capazes de desenvolver IA avançada, os formuladores de políticas podem apostar em usar a liderança dos seus paíseses para reduzir os riscos dos desenvolvimentos de IA de outros países, (i) desenvolvendo e compartilhando métodos de segurança, (ii) avaliando e demonstrando riscos e (iii) implementando medidas defensivas. No entanto, essa também não é uma aposta segura, pois talvez essas ações demorem mais do que permite a liderança de países cautelosos. (Infelizmente, não temos conhecimento de nenhuma estratégia de segurança de IA que seja uma aposta segura).


Publicado originalmente em 2023 aqui.

Autor: BlueDot Impact

Tradução: Luan Marques

Deixe um comentário