Introdução à Parte 2 do Currículo de Governança da IA da BlueDot Impact

Nas semanas 4 a 6 do curso, estudaremos um conjunto emergente de ideias para regulamentar o desenvolvimento da IA em escala industrial. Esta introdução visa colocar isso em contexto.

Desenvolvimento da IA em escala industrial

Hoje, o desenvolvimento de IA de ponta requer vastos recursos computacionais. Para fabricar modelos como o ChatGPT, as empresas de IA gastam milhões de dólares em milhares de chips de computador de ponta especializados em IA.

Por que o desenvolvimento da IA em escala industrial pode ser um bom alvo para a regulamentação

Porque:

  • O desenvolvimento da IA em escala industrial apresenta riscos desproporcionais.
    • As capacidades dos sistemas de IA tendem a aumentar com a quantidade de recursos computacionais usados para desenvolvê-los1. Como resultado, o desenvolvimento da IA em escala industrial tenderá a produzir sistemas de IA que, juntamente com muito potencial, carregam riscos especialmente graves (tanto de uso indevido quanto de desalinhamento).
  • O desenvolvimento da IA em escala industrial só pode ser oferecido por empresas ou governos de tecnologia com bons recursos.
    • Como resultado, os regulamentos podem evitar afetar pequenas start-ups, a maioria dos acadêmicos e pessoas comuns.
  • O desenvolvimento da IA em escala industrial é sem dúvida um ponto de intervenção particularmente tratável.
    • Por que focar no desenvolvimento da IA: uma vez que um sistema de IA foi desenvolvido (ou seja, treinado), é relativamente fácil fazer muitas cópias dele e executá-las, permitindo que um modelo perigoso prolifere. Mesmo que um desenvolvedor de IA não implementasse um sistema de IA de forma irresponsável, um sistema de IA treinado pode ser roubado e liberado por hackers menos responsáveis. Por causa disso, parece mais fácil para os reguladores intervir antes que um perigoso sistema de IA seja treinado.
    • Por que focar no desenvolvimento da IA em escala industrial : ele depende de uma cadeia de suprimentos de hardware extremamente sofisticada e concentrada. Isso pode permitir que uma coalizão internacional (potencialmente pequena) aplique globalmente regras sobre o desenvolvimento da IA em escala industrial, preservando a privacidade. Estudaremos mais isso nas próximas semanas.

Limitações da regulamentação do desenvolvimento da IA em escala industrial

Existem riscos importantes que são colocados pelo desenvolvimento da IA em pequena escala (isto é, em escala não industrial). Além disso, o escopo desses riscos pode crescer conforme os algoritmos para treinamento de IA se tornam mais eficientes em termos computacionais (que é a tendência histórica2). Pode ser que o desenvolvimento de IA que requeira recursos de computação em escala industrial, numa década, seja possível num computador pessoal, na década seguinte (ou talvez antes)3.

Mesmo que os regulamentos de segurança no desenvolvimento da IA em escala industrial não sejam uma solução permanente, eles podem ganhar tempo suficiente para desenvolver e implementar medidas defensivas resilientes4.

O que cada semana abordará

Na semana 4, estudaremos algum contexto básico sobre normas e regulamentos de IA, incluindo a questão do que os regulamentos de segurança da IA devem exigir.

As semanas 5 a 6 exploram ideias para abordar um problema potencial com a regulamentação da IA: como os países podem regulamentar a IA sem serem superados por países que não adotam proteções adequadas?

Notas

1. Os principais sistemas de IA, como o ChatGPT, foram desenvolvidos por meio de uma escala de recursos de computação que, antes da década de 2020, era sem precedentes no campo da IA. Kaplan, et ai . (2020) foi um artigo inicial que quantificou essas tendências.

2. Consulte Algorithmic Progress in Computer Vision (Erdil & Besiroglu, 2023). Além disso, a existência do cérebro humano prova que é possível treinar uma inteligência geral sem vastos recursos computacionais.

3. Um cálculo aproximado: o MacBook Pro da Apple tem GPUs com taxa de transferência da ordem de 10 TFLOP/s. A melhor GPU da NVIDIA naquela época tinha uma taxa de transferência de cerca de 300 TFLOP/s. Portanto, passar de 1.000 GPUs de ponta para 1 GPU de ponta (sem avanços de hardware) exigiria melhorar a eficiência algorítmica num fator de aproximadamente 30.000. Com a eficiência algorítmica dobrando a cada 9 meses, como em (Erdil e Besiroglu, 2023), isso leva aproximadamente 11 anos. No entanto, se as ferramentas de IA acelerassem a taxa de avanços na eficiência algorítmica, o tempo seria menor.

4. Por exemplo, antes que haja uma proliferação em massa de sistemas de IA que podem causar danos catastróficos por meio de ataques cibernéticos ou ajudar as pessoas a construir armas biológicas, o uso seguro de capacidades avançadas de IA nesses domínios pode ajudar a corrigir vulnerabilidades de software e desenvolver novas vacinas.

Deixe um comentário