12 ideias provisórias para a política de IA dos EUA

Cerca de dois anos atrás, escrevi que “é difícil saber quais ‘objetivos intermediários’ [por exemplo, objetivos políticos] poderíamos perseguir que, se alcançados, aumentariam claramente as chances de bons resultados finais da IA ​​transformadora”. Muita coisa mudou desde então, e neste post dou uma atualização sobre 12 ideias para os objetivos da política dos EUA1 que eu acho provisoriamente que aumentariam as chances de bons resultados da IA ​​transformadora2.

Acho que os EUA geralmente regulamentam em excesso e que a maioria das pessoas subestima os enormes benefícios da inovação rápida. No entanto, quando 50% dos especialistas (que responderam à pesquisa) em uma tecnologia específica acham que há uma chance razoável de ela resultar em consequências “extremamente ruins (p. ex., extinção humana)”, acho que uma regulamentação ambiciosa e ponderada é necessária3.

Primeiro, algumas ressalvas:

  • Estas são minhas próprias opiniões provisórias, não da Open Philanthropy4. Eu poderia facilmente mudar minhas opiniões em resposta a uma análise mais aprofundada ou a novos desenvolvimentos.
  • Minhas opiniões são baseadas em um quadro estratégico semelhante ao descrito nas postagens The Most Important Century e Implications of… de meu colega Holden Karnofsky. Em outras palavras, acho que a IA transformadora pode trazer enormes benefícios, mas também considero o risco existencial total da IA ​​transformadora como uma preocupação plausível e urgente, e sou mais agnóstico quanto à probabilidade, forma e tratabilidade desse risco do que, por exemplo, um editorial recente da TIME.
  • Nenhuma das opções de políticas abaixo recebeu escrutínio suficiente (embora tenham recebido muito mais escrutínio do que o apresentado aqui), e há muitas maneiras como seu impacto pode se tornar negativo em uma análise mais aprofundada ou na implementação, mesmo se minha imagem básica da situação estratégica estiver correta.
  • Que eu saiba, nenhuma dessas ideias de políticas foi elaborada com detalhes suficientes para permitir a implementação imediata, mas especialistas começaram a esboçar os possíveis detalhes para a maioria delas (não incluídos aqui). Nenhuma dessas ideias é originária de mim.
  • Este post não explica muito do meu raciocínio para favorecer provisoriamente essas opções políticas. Todas as opções abaixo têm misturas complicadas de prós e contras, e muitos especialistas se opõem a (ou apoiam) cada uma delas. Este post não pretende (e não deve) convencer ninguém. No entanto, na sequência dos recentes avanços e discussões da IA, muitas pessoas têm me perguntado sobre esse tipo de ideia de política, e por isso estou compartilhando minhas opiniões aqui.
  • Algumas dessas opções de política são mais tratáveis ​​politicamente do que outras, mas, como vimos recentemente, o cenário político às vezes muda rápida e inesperadamente.

Com essas advertências em mãos, abaixo estão alguns dos meus palpites pessoais atuais sobre as opções de políticas dos EUA que reduziriam o risco existencial da IA ​​em expectativa (sem ordem)5.

  1. Controles de exportações de software. Controle a exportação (para qualquer um) de “modelos de IA na fronteira”, ou seja, modelos com capacidades altamente gerais acima de algum limite, ou (simplificando) modelos treinados com um orçamento de computação acima de algum limite (p. ex., tanto poder computacional quanto US$ 1 bilhão pode comprar hoje). Isso ajudará a limitar a proliferação dos modelos que provavelmente apresentam o maior risco. Restrinja também o acesso a APIs de algumas maneiras, pois o acesso a APIs pode ser usado para gerar um conjunto de dados otimizado suficiente para treinar um modelo menor para alcançar um desempenho semelhante ao do modelo maior.
  2. Exigir recursos de segurança de hardware em chips de ponta. Os recursos de segurança nos chips podem ser aproveitados para muitos propósitos úteis de governança de computação, p. ex., para verificar a conformidade com controles de exportações e regulamentações domésticas, monitorar a atividade do chip sem vazar protocolo de internet sensível, limitar o uso (p. ex., por meio de limites de interconexão) ou até mesmo intervir em uma emergência (p. ex., desligamento remoto). Essas funções podem ser obtidas por meio de atualizações de firmware para chips já implementados, embora alguns recursos sejam mais resistentes a adulterações se implementados no próprio silício em chips futuros.
  3. Rastrear estoques e fluxos de chips de ponta e licenciar grandes clustersOs chips acima de um determinado limite de capacidade (p. ex., aquele usado para os controles de exportações de outubro de 2022) devem ser rastreados e uma licença deve ser exigida para reunir grandes massas deles (conforme necessário para treinar modelos na fronteira com boa relação custo-benefício). Isso melhoraria a visibilidade do governo em clusters de computação potencialmente perigosos. E sem isso, outros aspectos de um regime eficaz de governança de computação podem se tornar irrelevantes por meio do uso de computação não declarada.
  4. Rastrear e exigir uma licença para desenvolver modelos de IA de ponta. Isso melhoraria a visibilidade do governo sobre o desenvolvimento de modelos de IA potencialmente perigosos e permitiria mais controle sobre sua proliferação. Sem isso, outras políticas como os requisitos de segurança da informação abaixo são difíceis de implementar.
  5. Requisitos de segurança da informação. Exija que os modelos de IA na fronteira estejam sujeitos a proteções de segurança da informação extremamente rigorosas (incluindo segurança cibernética, física e pessoal), inclusive durante o treinamento de modelos, para limitar a proliferação não intencional de modelos perigosos.
  6. Requisitos de teste e avaliação. Exija que os modelos de IA na fronteira sejam submetidos a testes e avaliações de segurança extremamente rigorosos, incluindo alguma avaliação por um auditor independente que atenda a determinados critérios6.
  7. Financiar gêneros específicos de Pesquisa e Desenvolvimento de alinhamento, interpretabilidade e avaliação de modelos. Observe que, se os gêneros não forem bem especificados, esse financiamento pode efetivamente ampliar (em vez de reduzir) a lacuna entre capacidades de IA de ponta e métodos disponíveis para alinhamento, interpretabilidade e avaliação. Veja, p. ex., aqui para um modelo possível.
  8. Financiar Pesquisa e Desenvolvimento de segurança da informação defensiva, novamente para ajudar a limitar a proliferação não intencional de modelos perigosos. Até a estratégia de financiamento mais ampla ajudaria, mas há muitas maneiras de direcionar esse financiamento para a canalização do desenvolvimento e implementação de modelos de IA de ponta.
  9. Criar um porto seguro antitruste estreito para a colaboração em segurança e proteção da IA. Desenvolvedores de modelos na fronteira seriam mais propensos a colaborar de forma útil no trabalho de segurança e proteção da IA se tal colaboração fosse mais claramente permitida pelas regras antitruste. O escopo cuidadoso da política seria necessário para manter os objetivos básicos da política antitruste.
  10. Exigir certos tipos de relatórios de incidentes de IA, semelhantes aos requisitos de relatórios de incidentes em outros setores (p. ex., aviação) ou aos requisitos de relatórios de violação de dados, e semelhantes a alguns regimes de divulgação de vulnerabilidades. Muitos incidentes não precisariam ser relatados publicamente, mas poderiam ser mantidos em sigilo dentro de um órgão regulador. O objetivo disso é permitir que os reguladores e talvez outros rastreiem certos tipos de danos e ameaças dos sistemas de IA, para acompanhar onde estão os perigos e desenvolver rapidamente os mecanismos de mitigação.
  11. Esclarecer a responsabilidade dos desenvolvedores de IA por danos de IA concretos, especialmente danos físicos ou financeiros claros, incluindo aqueles resultantes de práticas de segurança negligentes. Um novo quadro para a responsabilidade da IA ​​deve, em particular, abordar os riscos dos modelos na fronteira que executam ações. O objetivo da responsabilidade clara é incentivar um maior investimento em segurança, proteção, etc., por desenvolvedores de IA.
  12. Criar meios para desligamento rápido de grandes clusters de computação e execuções de treinamento. Um tipo de “interruptor de desligamento” que pode ser útil em uma emergência é um interruptor de corte de energia sem rede para grandes clusters de computação. Pelo que eu sei, a maioria das centrais de dados não tem isso7. Mecanismos de desligamento remoto em chips (mencionados acima) também podem ajudar, embora sejam vulneráveis ​​à interrupção por ataque cibernético. Várias opções adicionais podem ser necessárias para clusters de computação e execuções de treinamento além de determinados limiares.

É claro que, mesmo que alguém concorde com algumas dessas opiniões abstratas, não forneci detalhes suficientes neste breve post para que os leitores saibam exatamente o que defender ou como defender. Se você tiver habilidades úteis, redes, financiamento ou outros recursos que gostaria de direcionar para desenvolver ou defender uma ou mais dessas ideias de política, indique seu interesse neste breve Formulário do Google. (As informações que você compartilhar neste formulário estarão disponíveis para mim [Luke Muehlhauser] e alguns outros funcionários da Open Philanthropy, mas não compartilharemos suas informações além disso sem sua permissão.)

Notas de rodapé

1. Muitas dessas opções de políticas também seriam plausivelmente boas para implementar em outras jurisdições, mas para a maioria delas os EUA são um bom lugar para começar (os EUA são plausivelmente a jurisdição mais importante de qualquer maneira, dada a localização de empresas-líderes e que muitos outros países às vezes seguem os EUA), e sei muito menos sobre política e formulação de políticas em outros países.

2. Para saber mais sobre metas intermediárias, consulte Pesquisa sobre metas intermediárias na governança da IA.

3. Esse parágrafo foi adicionado em 18 de abril de 2023.

4. Além do meu trabalho diário na Open Philanthropy, também sou membro do conselho da Anthropic, embora não tenha ações da empresa e não seja remunerado por ela. Novamente, essas opiniões são minhas, não da Anthropic.

5. Existem muitas outras opções de políticas que propositadamente não mencionei aqui. Esses incluem:

  • Controles de exportações de hardware. Os EUA já implementaram importantes controles de exportações de equipamentos de fabricação de semicondutores e chips de última geração. Esses controles têm prós e contras do meu ponto de vista, embora seja importante observar que eles podem ser um complemento necessário para algumas das políticas que recomendo provisoriamente neste post. Por exemplo, os controles sobre equipamentos de fabricação de semicondutores ajudam a preservar uma cadeia de suprimentos unificada à qual mecanismos futuros de governança de computação para redução de riscos podem ser aplicados. Esses controles de hardware provavelmente precisarão de manutenção contínua por formuladores de políticas tecnicamente sofisticados para permanecerem eficazes.
  • Intervenções de “impulsionamento dos EUA”, como subsídios à fabricação de semicondutores ou financiamento de pesquisa e desenvolvimento de IA. Há um ano, eu era fracamente a favor dessas políticas, mas análises recentes me levaram a esperar fracamente que essas intervenções sejam negativas devido, p. ex., à probabilidade de encurtar as linhas do tempo da IA. No entanto, mais análises poderiam me fazer voltar à opinião anterior. “Impulsionar os EUA” aumentando a imigração de alta qualificação pode ser uma exceção aqui porque realoca em vez de criar um input-chave da IA (talento), mas não tenho certeza, por exemplo, pois trabalhadores qualificados podem acelerar a IA mais rapidamente nos EUA do que em outras jurisdições. Como acontece com todas as opiniões políticas neste post, depende da magnitude e da certeza de múltiplos efeitos em diferentes direções, e esses números são difíceis de estimar.
  • Regulamentação que retarda a IA que não é “diretamente” útil além de retardar o progresso da IA, como, p. ex., uma lei que diz que a doutrina de “fair use” não se aplica a dados usados ​​para treinar grandes modelos de linguagem. Algumas coisas nesse gênero podem ser boas de se fazer com o objetivo de ganhar mais tempo para encontrar as soluções necessárias de alinhamento e governança da IA, mas não priorizei a análise dessas opções em relação às opções listadas no texto principal, que simultaneamente ganham mais tempo e são “diretamente” úteis para mitigar os riscos que mais me preocupam. Além disso, acho que criar a capacidade de desacelerar o progresso da IA ​​durante o período mais perigoso (no futuro) é mais importante do que desacelerar o progresso da IA ​​agora, e a maioria das políticas no texto principal ajuda a desacelerar o progresso da IA ​​no futuro.
  • Lançar novos acordos ou instituições multilaterais para regulamentar a IA globalmente. A regulamentação global é necessária, mas ainda não vi propostas nesse gênero que eu espere serem viáveis ​​e eficazes. Meu palpite é que a maneira de trabalhar em direção a uma nova regulamentação global é semelhante à forma como os controles de exportações de outubro de 2022 se desenrolaram: os EUA podem avançar primeiro com uma política eficaz sobre um dos tópicos acima e depois persuadir outros países influentes a aderir.
  • Uma nuvem de pesquisa nacional. Eu acho que isso é inútil porque acelera amplamente a pesquisa e desenvolvimento de IA e cria um número maior de pessoas que podem treinar modelos perigosamente grandes, embora os detalhes de implementação sejam importantes.

6. veja o exemplo 15-16 do GPT-4 system card report para ter uma ilustração.

7. Por exemplo, a falta de um botão para desligar exacerbou o incêndio que destruiu uma central de dados em Estrasburgo; veja a seção VI.2.1 – iv deste relatório


Publicado originalmente em 17 de abril de 2023 aqui.

Autor: Luke Muehlhauser

Tradução: Luan Marques

Deixe um comentário