Lições dos dois experimentos em governança da IA no mundo

Os formuladores de políticas podem estudar os sucessos e fracassos das medidas de modo a orientar suas próprias abordagens regulatórias.

A inteligência artificial (IA) é onipresente e conceitualmente escorregadia, o que a torna notoriamente difícil de regulamentar. Felizmente para o resto do mundo, dois grandes experimentos na concepção da governança da IA estão ocorrendo na Europa e na China. A União Européia (UE) está correndo para aprovar seu projeto de Lei de Inteligência Artificial, uma legislação abrangente destinada a reger quase todos os usos da IA. Enquanto isso, a China está lançando uma série de regulamentações visando tipos específicos de algoritmos e capacidades de IA. Para muitos países que iniciam suas próprias iniciativas de governança da IA, será crucial aprender com os sucessos e fracassos desses dois esforços iniciais para governar a IA.

Quando os formuladores de políticas se sentam para desenvolver uma resposta legislativa séria à IA, a primeira questão fundamental que eles enfrentam é se devem adotar uma abordagem mais “horizontal” ou “vertical”. Numa abordagem horizontal, os reguladores criam uma regulamentação abrangente que cobre os muitos impactos que a IA pode ter. Numa estratégia vertical, os formuladores de políticas adotam uma abordagem sob medida, criando diferentes regulamentações para atingir diferentes aplicações ou tipos de IA.

Nem a UE nem a China estão adotando uma abordagem puramente horizontal ou vertical para governar a IA. Mas a Lei de IA da UE se inclina à horizontalidade e os regulamentos de algoritmos da China se inclinam à verticalidade. Ao se aprofundar nesses dois experimentos de governança da IA, os formuladores de políticas podem começar a extrair lições para suas próprias abordagens regulatórias.

Abordagem da UE

A abordagem da UE à governança da IA ​​se concentra numa legislação crucial. No seu âmago, a Lei de IA agrupa aplicações de IA em quatro categorias de risco, cada qual regida por um conjunto predefinido de ferramentas regulatórias. Aplicações consideradas como de “risco inaceitável” (como a pontuação social e certos tipos de biometria) são proibidas. Aplicações de “alto risco”, que representam uma ameaça à segurança ou a direitos fundamentais (pense na imposição da lei ou em procedimentos de contratação), estão sujeitas a certos requisitos antes e depois de entrarem no mercado. Aplicações vistas como de “risco limitado” (detecção de emoções e chatbots, por exemplo) enfrentam apenas requisitos de transparência. A maioria dos usos de IA é classificada como de “risco mínimo” e sujeita apenas a medidas voluntárias.

A Lei de IA define vagamente “requisitos essenciais” para cada nível de risco, colocando diferentes restrições em cada categoria. A maneira mais fácil para os desenvolvedores cumprirem esses mandatos será aderir a normas técnicas que estão sendo formuladas pelos órgãos europeus de definição de normas. Isso torna as normas técnicas uma peça-chave da Lei de IA: é nelas que as disposições gerais descritas na legislação são traduzidas em requisitos precisos para sistemas de IA. Uma vez em vigor, anos de trabalho de tribunais, reguladores nacionais e órgãos de normas técnicas esclarecerão com precisão como a Lei de IA será aplicada em diferentes contextos.

Com efeito, a Lei de IA usa uma única legislação horizontal para fixar o amplo escopo de quais aplicações de IA devem ser regulamentadas, enquanto ao mesmo tempo permite que órgãos sensíveis ao domínio e ao contexto, como tribunais, órgãos de normatização e desenvolvedores, determinem parâmetros exatos e estratégias de conformidade. Aumentando sua capacidade de agir de maneiras mais específicas ao contexto, a UE também está combinando os requisitos da Lei de IA com estratégias corregulatórias, como sandboxes regulatórios, uma política de responsabilidade atualizada para lidar com os desafios da IA ​​e legislação associada focada em dadosestruturas de mercado e plataformas on-line.

Essa estrutura estabelece um equilíbrio entre os dois imperativos de fornecer previsibilidade e acompanhar o ritmo dos desenvolvimentos da IA. Sua abordagem baseada em risco permite que os reguladores coloquem novas áreas de aplicação em categorias de risco existentes conforme os usos da IA ​​evoluem, proporcionando um equilíbrio entre flexibilidade e certeza regulatória. Enquanto isso, a definição da Lei de IA de requisitos essenciais relativamente flexíveis também alivia o principal desafio de precisão imposto por estruturas puramente horizontais, permitindo que as estratégias de conformidade sejam flexíveis entre setores e conforme a tecnologia evolui.

Mas a abordagem amplamente horizontal da UE enfrenta vários riscos que outros países devem vigiar de perto. Os indivíduos reguladores encarregados de fazer cumprir os requisitos podem diferir em suas interpretações ou capacidade de regular, prejudicando a capacidade crucial e os benefícios de harmonização de uma abordagem horizontal. Outro fator é se o proposto Escritório de IA central e horizontal da Europa será eficaz em complementar a capacidade de reguladores nacionais e setoriais. Delegar a criação de requisitos técnicos precisos a órgãos de definição de normas especializados permite que mais conhecimento técnico e precisão sejam canalizados para requisitos precisos. No entanto, o processo de normatização tem sido conduzido historicamente pela indústria e será um desafio garantir que os governos e o público tenham um assento significativo à mesa.

Abordagem da China

Durante o ano passado, a China lançou algumas das primeiras regulamentações vinculativas a nível nacional direcionadas a algoritmos e IA. Adotou uma abordagem fundamentalmente vertical: escolhendo aplicações de algoritmos específicas e escrevendo regulamentos que lidam com a sua implementação em determinados contextos. Os dois primeiros regulamentos nesse campo atingiam algoritmos de recomendação e tecnologia de síntese profunda, também conhecida como IA generativa.

A regulamentação de algoritmos de recomendação concentrou-se em seu uso na disseminação de informações, assim como na fixação de preços e no despacho de trabalhadores. Exigia que os provedores de algoritmos “disseminassem vigorosamente uma energia positiva” e evitassem a discriminação de preços ou cargas de trabalho excessivamente exigentes para entregadores. A segunda regulamentação atingia algoritmos de síntese profunda que usam dados de treinamento para gerar novos conteúdos, como deepfakes. O regulamento novamente se concentrava nas preocupações com “informações prejudiciais”, mas também exigia que os provedores obtivessem o consentimento de indivíduos se suas imagens ou vozes fossem manipuladas pela tecnologia. Esses requisitos específicos à aplicação decorrem da natureza vertical dos regulamentos. Nenhum desses requisitos faria sentido quando aplicados ao outro conjunto de aplicações ou às que seriam abrangidas por um regulamento horizontal.

No entanto, os regulamentos da China contêm um elemento horizontal: eles criam certas ferramentas regulatórias que podem ser aplicadas horizontalmente entre vários regulamentos verticais diferentes. Um excelente exemplo disso é o registro de algoritmos (算法备案系统, literalmente “sistema de arquivamento de algoritmos”). O registro foi criado pela regulamentação do algoritmo de recomendação e reafirmado pela regulamentação da síntese profunda, ambas exigindo que os desenvolvedores registrem seus algoritmos. Ele atua como um banco de dados central para as autoridades chinesas coletarem informações sobre algoritmos, como suas fontes de dados de treinamento e riscos de segurança em potencial. Dessa forma, o registro também serve como um veículo para os reguladores aprenderem mais sobre como a IA está sendo construída e implementada – um objetivo fundamental dos reguladores setoriais em todo o mundo.

Olhando para o futuro, o registro pode continuar a atuar como uma ferramenta horizontal para coletar informações semelhantes sobre algoritmos que se enquadram numa variedade de regulamentações verticais. Ele pode ser adaptado para exigir diferentes tipos de informações dependendo da aplicação do algoritmo, ou pode simplesmente fornecer uma linha basal uniforme de informações necessárias em todos os algoritmos sujeitos a regulamentação.

A abordagem da China a permite direcionar com mais precisão os requisitos regulatórios para capacidades técnicas específicas. Em muitos casos, essa abordagem pode arriscar que as regras fiquem para trás da tecnologia em rápida evolução. No entanto, no regulamento de IA da China, alguns requisitos são definidos de forma tão vaga que efetivamente funcionam para transferir o poder das empresas de tecnologia para os reguladores do governo, que podem exercer seu novo poder regulatório para forçar as mudanças que desejarem nas empresas. Os regulamentos verticais da China também podem acabar como blocos de construção para um regime de governança da IA mais abrangente, um padrão que se desenrolou na governança chinesa da Internet antes da Lei de Cibersegurança do país. Mas, até então, o principal risco de tal abordagem é a criação de uma colcha de retalhos de regulamentações que são, coletivamente, mal consideradas e caras de cumprir.

Lições

As abordagens da UE e da China têm seus críticos. Grupos empresariais argumentam que a abordagem ampla da UE sufocará a inovação, e os analistas afirmam com razão que as regulamentações direcionadas da China serão usadas para aumentar os controles de informação. Mas, ao dar um passo para atrás para analisar suas abordagens fundamentais à regulamentação da IA, os formuladores de políticas podem tirar lições para países e instituições em todo o mundo.

Uma lição central é que nenhuma das abordagens pode se sustentar totalmente por si só. Uma abordagem regulatória puramente horizontal não será capaz de estabelecer requisitos específicos significativos para todas as aplicações de IA. Por outro lado, criar um saco de regulamentos verticais autônomos atingindo cada nova aplicação de IA provavelmente criará uma confusão de conformidade tanto para reguladores e como para empresas.

As abordagens mais eficazes incorporam tanto elementos horizontais como verticais. Os reguladores que adotam uma abordagem horizontal se beneficiam de ceder o trabalho minucioso de criar requisitos de conformidade específicos para organizações mais orientadas verticalmente, como reguladores setoriais, órgãos de normatização ou, em alguns casos, tribunais. Da mesma forma, governos que adotam uma abordagem vertical podem criar ferramentas e recursos regulatórios horizontais que podem ser usados ​​numa variedade de leis específicas à aplicação, reduzindo a carga sobre os reguladores e a imprevisibilidade para os negócios.

Podemos ver versões disso nas abordagens da UE e da China. Embora a Lei de IA da UE crie quatro níveis de risco e estabeleça requisitos amplos para cada um, o trabalho pesado de articular limites de conformidade específicos será feito pelos principais órgãos de normatização da Europa. E, embora a China tenha emitido regulamentos verticais atingindo mecanismos de recomendação e IA generativa, esses regulamentos se apoiam em ferramentas horizontais, como o registro de algoritmos, a fim de criar coerência entre eles.

Além dessa necessidade abrangente de suplementar ambas as abordagens, os regimes regulatórios horizontais e verticais apresentam diferentes prós e contras. A escolha sobre qual regime regulatório funcionará melhor muitas vezes se resume à estrutura e cultura de cada governo. Quão ágeis ou congestionados ​​são os órgãos legislativos de um país? Quão fortalecidos e coordenados estão seus reguladores setoriais? As respostas a essas perguntas informam qual abordagem funcionará melhor.

Abordagens horizontais fornecem previsibilidade a desenvolvedores e empresas, estabelecendo um conjunto fixo de ferramentas de governança. Apesar da diversidade das aplicações de IA, os riscos que elas representam geralmente envolvem temas semelhantes de transparência, resiliência e prestação de contas, e as estratégias horizontais podem ajudar os governos a concentrar recursos limitados nesses temas recorrentes. Abordagens horizontais também podem reduzir a chance de surgirem lacunas regulatórias quando os reguladores sobrecarregados específicos ao setor não têm a capacidade de considerar novas tecnologias, como a IA.

Mas governos precisarão de algumas características para colher os benefícios das abordagens horizontais. Seus órgãos legislativos precisarão da capacidade de emendar ou adicionar à sua principal regulamentação horizontal para acompanhar o ritmo da tecnologia. É improvável que uma regulamentação horizontal estática para uma tecnologia em rápida evolução se sustente. Além disso, quando uma regulamentação horizontal delega a definição de requisitos de conformidade precisos a outras instituições, essas instituições precisam ser capazes de resistir à captura da indústria. Por exemplo, se os órgãos normativos dominados pela indústria estabelecem normas de conformidade fracos, a regulamentação em si se torna fraca.

Os regulamentos verticais de IA têm o benefício de serem adaptados para mitigar os danos específicos causados ​​por diferentes aplicações de IA. Embora mais limitados em sua ambição final, esses regulamentos individuais podem lidar com os danos existentes sem o ônus adicional de serem generalizáveis para​ todas as aplicações da tecnologia. Conforme reguladores e legisladores aprendem quais intervenções são bem-sucedidas, eles podem incorporar essas ferramentas ou requisitos em legislações futuras voltadas para outros danos. E, se essa abordagem fragmentada acabar sendo insuficiente, eles podem aplicar essas lições na formação de um regime regulatório mais horizontal.

Mas essa abordagem vertical requer um certo nível de coordenação legislativa e entre agências para minimizar os custos tanto para os reguladores quanto para as empresas. Se as agências não se coordenarem para construir ferramentas regulatórias comuns, elas correm o risco de reinventar a roda toda vez que um novo departamento é encarregado de regulamentar uma aplicação específica da IA. Da mesma forma, se os regulamentos verticais não forem acompanhados dos recursos técnicos e financeiros necessários, os reguladores setoriais serão superados em seus esforços para restringir significativamente as empresas que aplicam a IA.

A estrutura política dos Estados Unidos produziu um conjunto heterogêneo de incursões na regulamentação da IA. Esses esforços geraram uma mistura única de elementos horizontais e verticais. As duas últimas administrações presidenciais estabeleceram seus próprios princípios-guia politicamente orientados na forma da orientação sobre a regulamentação da IA do ex-presidente Donald Trump ​​e do Plano para uma Carta de Direitos da IA do presidente Joe Biden. Isso serviu como orientação horizontal destinada a informar reguladores setoriais verticais no poder executivo. Ambas as abordagens horizontais e baseadas em princípios tentam harmonizar abordagens de alto nível à regulamentação da IA, enquanto preservam a flexibilidade para se adaptar a configurações individuais. No entanto, se não for combinada com recursos e pressão para realmente realizar essa adaptação específica ao setor, essa abordagem corre o risco de resultar em absolutamente nenhuma regulamentação significativamente vinculativa.

Além disso, regulamentações dependentes de que departamentos federais façam ou interpretem regras correm o risco de ser revertidas durante o próximo governo, como aconteceu com os requisitos de explicação de algoritmos usados ​​para decisões de crédito entre os governos Trump e Biden. Enquanto isso, maiorias bipartidárias no Congresso financiaram esforços de pesquisa de IA e diretrizes de melhores práticas, como o recente AI Risk Management Framework [Estrutura de Gestão de Riscos de IA] (RMF) do Instituto Nacional de Normas e Tecnologia. O RMF é não obrigatório intencionalmente, mas possui semelhanças com os tipos de ferramentas horizontais que podem ser aplicadas para apoiar futuras regulamentações verticais.

Não existe uma fórmula única para regulamentação de IA que possa ser aplicada em todos os países, mas combinações de elementos horizontais e verticais usados ​​nas regulamentações de IA da UE e da China oferecem um cardápio de opções de políticas. Ao adaptar as lições aprendidas com essas abordagens iniciais a seus contextos únicos, outros países podem tomar medidas significativas para reduzir os danos produzidos por sistemas de IA.


Publicado originalmente em 14 de fevereiro de 2023 aqui.

Autores: Matt O’Shaughnessy, Matt Sheehan.

Tradução: Luan Marques.

Deixe um comentário