Curso de Governança d IA – Texto Introdutório da Semana 4

Semana 4: Normas e Regulamentos da IA

Tendo examinado alguns riscos de segurança da IA, passamos para a discussão sobre como lidar com esses riscos. Especificamente, nos concentraremos em uma ideia proeminente para abordar os riscos de acidentes catastróficos e uso indevido da IA: regulamentar o desenvolvimento de IA em escala industrial. Para começar, esta semana estudaremos o contexto básico sobre normas e regulamentos de IA, bem como qual deve ser seu conteúdo (ou seja, o que deve ser exigido de grandes desenvolvedores de IA). Nas duas semanas seguintes, consideraremos como os formuladores de políticas podem garantir que as regras de segurança da IA sejam aplicadas onde quer que sejam necessárias, em vez de serem aplicadas apenas em alguns dos países relevantes.

Até o final da semana, você deve ser capaz de:
  • Articular algumas regras que poderiam ser definidas em torno de avaliações de capacidades e alinhamento de modelos (ou seja, quando as avaliações seriam feitas e o que os desenvolvedores de IA fariam com base nos resultados das avaliações), razões pelas quais tais regras poderiam promover a segurança da IA e razões pelas quais elas poderiam ter seus limites ou ser prejudiciais
  • Comparar a eficácia de normas e regulamentos, inclusive o modo como eles são estabelecidos e quais são suas consequências
  • Comparar o estado da regulamentação da IA na UE, na China e nos EUA em meados de 2023

Recursos (cerca de 1 h 40 min)

Cartilha de normas e regulamentos de segurança para o desenvolvimento de IA em escala industrial da BlueDot Impact (2023) [Artigo]

Tempo estimado: 10 min

Este guia introdutório apresenta vários aspectos das normas de segurança e regulamentações para o desenvolvimento de IA em escala industrial: o que são, seu potencial e limitações, algumas propostas para seu conteúdo e desenvolvimentos políticos recentes.

Regulamentação da IA de fronteira: gerenciando riscos emergentes para a segurança pública de Markus Anderljung, Joslyn Barnhart, Anton Korinek et al. (2023) [Artigo]

Tempo estimado: 25 min

Este artigo, elaborado por especialistas representando uma ampla gama de partes interessadas, faz propostas para a regulamentação da IA de fronteira. A seção na qual vamos nos concentrar enfatiza a infraestrutura regulatória que poderia facilitar a aplicação, em contraste com as propostas mais objetivas discutidas em outras leituras desta semana.

Avaliação de modelo para riscos extremos de Toby Shevlane (2023) [Artigo]

Tempo estimado: 33 minutos

Neste artigo, pesquisadores de três dos principais laboratórios de IA, pesquisadores sem fins lucrativos e um “Padrinho da IA” (Yoshua Bengio) argumentam que testes contínuos das capacidades e alinhamento de modelos de IA de fronteira devem informar ou tornar obrigatórias decisões sobre IA. Como um exemplo-chave, se um sistema de IA for encontrado com capacidades altamente perigosas, ele não deve ser implementado a menos que o desenvolvedor de IA tenha controles rigorosos contra uso indevido e desalinhamento.

Além disso, os autores propõem que “Modelos em risco de apresentar capacidades perigosas exigirão controles de segurança fortes e novos“, por exemplo, fortalecendo a cibersegurança para que modelos perigosos não sejam implementados por hackers. Normas e/ou regulamentos poderiam exigir que desenvolvedores de IA de fronteira sigam esse processo. Para isso, muito trabalho é necessário, como projetar métodos de avaliação e normas concretas.

Avaliações e normas de segurança para a IA de Beth Barnes (2023) [Vídeo]

Tempo estimado: 30 min

Esta é uma palestra da presidente da ARC Evals, uma equipe sem fins lucrativos que se associou aos laboratórios de IA OpenAI e Anthropic para avaliar as capacidades de seus modelos. Ela descreve um exemplo de avaliação e como tais avaliações podem avançar na segurança da IA. Este trabalho é um exemplo das avaliações de capacidades discutidas no artigo acima, e sugere várias ideias (que podem não ser claras apenas a partir da leitura anterior) sobre como os desafios técnicos e políticos das avaliações de modelos podem ser superados. (Uma observação terminológica: “risco x” é uma abreviação para “risco existencial”.)

Veja também a atualização dessa organização sobre seus esforços recentes.

(Leitura opcional) Lições dos dois experimentos em governança da IA no mundo de Matt O’Shaughnessy e Matt Sheehan (2023) [Artigo]

Tempo estimado: 11 min

Este artigo de pesquisadores do Carnegie Endowment oferece uma visão geral de como a UE, a China e os EUA estavam abordando a regulamentação de IA até o início de 2023. Observe que isso está parcialmente desatualizado; o líder da maioria do Senado dos EUA anunciou planos mais recentementes para aprovar regulamentação federal de IA em um prazo de “meses”, embora detalhes concretos ainda não tenham sido anunciados até junho de 2023. (“Sen. Chuck Schumer Launches SAFE Innovation in the AI Age at CSIS”, Center for Strategic and International Studies.)

(Leitura opcional) Como normas técnicas de segurança podem promover a segurança da Inteligência Artificial Transformadora de Cullen O’Keefe, Jade Leung e Markus Anderljung (2022) [Artigo]

Tempo estimado: 15 min

Neste artigo, pesquisadores da OpenAI e do Centre for the Governance of AI explicam como as normas podem ajudar a avançar a segurança da IA Transformadora (“IAT”), e eles insistem num aumento no trabalho sobre normas de segurança.

(Leitura opcional) Introdução à Parte 2 do Currículo de Governança da IA da BlueDot Impact (2023) [Blog]

Exercícios


Tradução: Luan Marques

Link para o original

Deixe um comentário