Regulamentação da IA de fronteira: gerenciando riscos emergentes para a segurança pública.

Resumo

Os modelos avançados de IA prometem enormes benefícios para a humanidade, mas a sociedade precisa gerir proativamente os riscos que os acompanham. Neste artigo, nos concentramos no que chamamos de modelos de “IA de fronteira”: modelos fundamentais altamente capazes que podem possuir capacidades perigosas o suficiente para representar riscos graves à segurança pública. Os modelos de IA de fronteira representam um desafio regulatório distinto: capacidades perigosas podem surgir inesperadamente; é difícil impedir de forma resiliente que um modelo implementado seja utilizado indevidamente; e é difícil impedir que as capacidades de um modelo proliferem amplamente. Para enfrentar esses desafios, são necessários pelo menos três elementos básicos para a regulamentação de modelos de fronteira: (1) processos de definição de normas para identificar requisitos apropriados para desenvolvedores de IA de fronteira, (2) requisitos de registro e comunicação para fornecer aos reguladores visibilidade sobre os processos de desenvolvimento de IA de fronteira e (3) mecanismos para garantir a conformidade com as normas de segurança para o desenvolvimento e a implementação de modelos de IA de fronteira. A autorregulamentação da indústria é um primeiro passo importante. No entanto, serão necessárias discussões sociais mais amplas e intervenção governamental para criar normas e garantir o cumprimento delas. Consideramos várias opções para esse fim, incluindo a concessão de poderes de aplicação a autoridades de supervisão e regimes de licenciamento para modelos de IA de fronteira. Finalmente, propomos um conjunto inicial de normas de segurança. Elas incluem realizar avaliações de risco pré-implementação; investigar externamente o comportamento do modelo; usar avaliações de risco para informar decisões de implementação; e monitorar e responder a novas informações sobre capacidades e usos do modelo pós-implementação. Esperamos que esta discussão contribua para uma conversa mais ampla sobre como equilibrar os riscos para a segurança pública e os benefícios da inovação a partir dos avanços de fronteira do desenvolvimento da IA.

Sumário Executivo

As capacidades dos modelos fundamentais atuais destacam tanto a promessa como os riscos dos rápidos avanços na IA. Esses modelos demonstraram um potencial significativo para beneficiar as pessoas numa vasta gama de domínios, incluindo educação, medicina e investigação científica. Ao mesmo tempo, os riscos colocados pelos modelos atuais, juntamente com as previsões do progresso futuro da IA, estimularam legitimamente apelos a uma maior supervisão e governança da IA numa série de questões políticas. Concentramo-nos numa dessas questões: a possibilidade de que, conforme as capacidades continuam a avançar, novos modelos fundamentais possam representar riscos graves para a segurança pública, seja por uso indevido, seja por acidente. Embora haja um debate contínuo sobre a natureza e o alcance desses riscos, esperamos que o envolvimento do governo seja necessário para garantir que tais “modelos de IA de fronteira” sejam aproveitados para o interesse público.

Três fatores sugerem que o desenvolvimento de IA de fronteira possa necessitar de uma regulamentação direcionada: (1) os modelos podem possuir capacidades perigosas inesperadas e difíceis de detectar; (2) modelos implementados para uso amplo podem ser difíceis de controlar de forma confiável e de impedir que sejam usados para causar danos; (3) eles podem proliferar rapidamente, permitindo contornar as proteções. É pouco provável que a autorregulamentação proporcione proteção suficiente contra os riscos de modelos de IA de fronteira: será necessária a intervenção governamental. Exploramos opções para tal intervenção. Elas incluem:

  • Mecanismos para criar e atualizar normas de segurança para o desenvolvimento e a implementação responsável da IA de fronteira. Eles devem ser desenvolvidos através de processos multilaterais e podem incluir normas relevantes para modelos fundamentais em geral, e não exclusivas à IA de fronteira. Esses processos devem facilitar a iteração rápida para acompanhar o ritmo da tecnologia.
  • Mecanismos para dar aos reguladores visibilidade sobre o desenvolvimento da IA de fronteira, tais como regimes de divulgação, processos de monitoração e proteções a delatores. Eles equipam os reguladores com as informações necessárias para se dirigir aos alvos regulatórios apropriados e projetar ferramentas eficazes para governar a IA de fronteira. As informações fornecidas diriam respeito à qualificação de processos, modelos e aplicações de desenvolvimento da IA de fronteira.
  • Mecanismos para garantir o cumprimento das normas de segurança. Os esforços de autorregulamentação, como a certificação voluntária, podem contribuir em parte para garantir a conformidade às normas de segurança por parte dos desenvolvedores de modelos da IA de fronteira. No entanto, parece provável que isso seja insuficiente sem a intervenção do governo, por exemplo, dando poder a uma autoridade de supervisão para identificar e sancionar a falta de cumprimento; ou licenciando a implementação e potencialmente o desenvolvimento da IA de fronteira. Projetar esses regimes para serem bem equilibrados é um desafio difícil; devemos ser sensíveis aos riscos de regulamentação excessiva e de entraves à inovação, por um lado, e de avançar demasiado lentamente com relação ao ritmo do progresso da IA, por outro.

Depois disso, descrevemos um conjunto inicial de normas de segurança que, se adotadas, forneceriam algumas proteções para o desenvolvimento e a implementação de modelos de IA de fronteira. Versões delas também poderiam ser adotadas para os atuais modelos de IA para a proteção contra uma série de riscos. Sugerimos que, no mínimo, as normas de segurança para o desenvolvimento da IA de fronteira incluam:

  • Realizar avaliações de risco completas baseadas em avaliações de capacidades perigosas e controlabilidade. Isso reduziria o risco de que os modelos implementados possuam capacidades perigosas desconhecidas ou se comportem de forma imprevisível e pouco confiável.
  • Envolver especialistas externos para aplicar um escrutínio independente aos modelos. O escrutínio externo do perfil de segurança e risco dos modelos melhoraria o rigor da avaliação e promoveria a prestação de contras perante o interesse público.
  • Seguir protocolos normatizados sobre como modelos de IA de fronteira podem ser implementados com base no risco avaliado. Os resultados das avaliações de risco devem determinar se e como o modelo será implementado e que proteções serão implementadas. Isso pode variar desde a implementação do modelo sem restrições até a não implementação. Em muitos casos, pode ser apropriada uma opção intermediária: implementação com proteções apropriadas (p. ex., mais pós-treinamento que torne o modelo mais propenso a evitar instruções arriscadas).
  • Monitorar e responder a novas informações sobre as capacidades do modelo. O risco avaliado de modelos de IA de fronteira implementados pode mudar ao longo do tempo devido a novas informações e novas técnicas de aprimoramento pós-implementação. Se forem descobertas informações significativas sobre as capacidades do modelo após a implementação, as avaliações de risco deverão ser repetidas e as proteções da implementação deverão ser atualizadas.

Daqui para frente, parece provável que os modelos de IA de fronteira justifiquem normas de segurança mais rigorosas do que as impostas à maioria dos outros modelos de IA, dados os riscos potenciais que representam. Exemplos de tais normas incluem: evitar grandes saltos nas capacidades entre gerações de modelos; adotar técnicas de alinhamento de última geração; e realizar avaliações de risco pré-treinamento. Tais práticas são incipientes hoje em dia e necessitam de maior desenvolvimento.

A regulamentação da IA de fronteira deve ser apenas uma parte de um portfólio político mais amplo, abordando a ampla gama de riscos e danos da IA, bem como os benefícios da IA. Os riscos colocados pelos atuais sistemas de IA devem ser abordados com urgência; a regulamentação da IA de fronteira teria como objetivo complementar e reforçar esses esforços, visando um subconjunto específico de esforços de IA com utilização intensiva de recursos. Embora permaneçamos incertos sobre muitos aspectos das ideias deste documento, esperamos que ele possa contribuir para uma discussão mais informada e concreta sobre como governar melhor os riscos dos sistemas avançados de IA, ao mesmo tempo viabilizando os benefícios da inovação para a sociedade.


Publicado originalmente em 6 de julho de 2023 e traduzido a partir da versão de 11 de julho de 2023 disponível aqui.

Tradução: Luan Marques

Deixe um comentário