Para ver os demais cursos sobre IA disponibilizados, clique aqui.

Não sabe nada sobre esse tema? Então recomendamos que comece assistindo a este vídeo.

Faça este curso para se familiarizar com a governança da inteligência artificial avançada para reduzir riscos extremos.

Neste currículo, examinamos os fatores de influência política, os ganhos e perdas advindos de regulamentações assim como as partes interessadas que são relevantes para gerenciar os riscos e oportunidades apresentados por sistemas avançados de IA. As opiniões sobre esses assuntos estão longe de uma consolidação, mas os recursos seguintes oferecem um ponto de partida útil para entender como reduzir riscos extremos no atual cenário da governança da IA.

Este curso foi desenvolvido por especialistas no assunto, com contribuições de líderes na área, como Ben Garfinkel, Haydn Belfield e Claire Boine. Veja quem mais está envolvido em nosso site.

Ao final deste curso, você deverá ser capaz de entender uma série de pautas no Alinhamento da IA e tomar decisões informadas sobre seus próximos passos para se envolver com o campo.

Visão geral do curso

O aprendizado de máquina avançou rapidamente nos últimos anos. Novos avanços representam vários riscos catastróficos que devemos antever; sobretudo, é plausível que as pessoas desenvolvam “inteligência geral artificial” (IGA) nas próximas décadas. No entanto, ela pode estar desalinhada dos interesses humanos, com consequências potencialmente catastróficas. Há também muitas maneiras como sistemas de IA intermediários poderiam exacerbar fontes existentes de risco extremo.

Normas e regulamentos poderiam nos ajudar a lidar com riscos extremos da IA na fronteira tecnológica. Poderiam incluir avaliações de modelo e medidas de segurança. Uma abordagem para a redução de riscos advindos de Estados que não regulamentam a IA é que uma coalizão cautelosa de países lidere a IA (p. ex., por meio de controles de exportações de hardware, segurança da informação e políticas de imigração) e use essa liderança para reduzir riscos. Outra abordagem é expandir a coalizão cautelosa, o que pode ser viável por meio de tratados com mecanismos de verificação que preservam a privacidade. Forneceremos recursos para ajudar você a examinar ambas as abordagens.

Outras ideias proeminentes de governança da IA (às vezes complementares) incluem a governança de laboratórios, que mitiga o uso indevido da IGA; o desaceleramento imediato da IA; e o “CERN para a IA”. Forneceremos brevemente uma visão geral dessas abordagens para que você saiba sobre o que outras pessoas estão discutindo.

A última semana discute sobre maneiras como você pode contribuir por meio do trabalho em políticas públicas, pesquisas de estratégia, trabalho de “governança técnica” e outros caminhos.

Tempo

Esperamos que em cada seção leve de 2 a 4 horas para interagir com todos os materiais (16 a 32 horas ao todo). Além disso, há exercícios para ajudar você a pensar sobre os tópicos por conta própria e progredir em seu aprendizado sobre o alinhamento da IA. Organizamos o conteúdo em semanas para ajudá-lo a acompanhar seu engajamento com o currículo.

Semana 1 – Introdução à IA e ao aprendizado de máquina
1.1. Texto introdutório da BlueDot Impact (2023)
1.2. Mas o que é uma rede neural? de 3Blue1Brown (2017) Vídeo com legendas em português.
1.3. Descida do gradiente, como as redes neurais aprendem de 3Blue1Brown (2017) Vídeo com legendas em português.
1.4. Uma breve introdução ao aprendizado de máquina de Richard Ngo (2021)
1.5. Como o ChatGPT Funciona Tecnicamente | Arquitetura do ChatGPT de ByteByteGo (2023) Vídeo com legendas em português.
1.6. Visualizando a revolução do aprendizado profundo de Richard Ngo (2023)
1.7. A tríade da IA e o que isso significa para a estratégia de segurança nacional de Ben Buchanan (2020)
1.8. Exercícios

Semana 2 – Introdução a potenciais riscos catastróficos da IA
2.1. Texto introdutório da BlueDot Impact (2023)
2.2. Visão geral de como a IA pode exacerbar riscos catastróficos duradouros da BlueDot Impact (2023)
2.3. Conforme agentes de IA como o AutoGPT aceleram a corrida da IA generativa, todos nós precisamos apertar os cintos de Sharon Goldman (2023)
2.4. Manipulação da especificação: o outro lado da engenhosidade da IA de Victoria Krakovna, Jonathan Uesato, Vladimir Mikulik et al. (2020)
2.5. Percepções de pesquisadores sobre IA atual e futura de Vael Gates (2022) Vídeo com legendas em português.
2.6. A necessidade do trabalho em Alinhamento Técnico da IA de Daniel Eth (2022)
2.7. Exercícios
2.8.(Leitura Opcional) Exemplos de manipulação da especificação de Victoria Krakovna (2023)

Semana 3 – Os desafios de alcançar a segurança da IA
3.1. Texto introdutório da BlueDot Impact (2023)
3.2. Erro de generalização do objetivo: por que especificações corretas não bastam para objetivos corretos de Rohin Shah (2022)
3.3. A segurança da IA parece difícil de mensurar de Holden Karnofsky (2022)
3.4. Compilação: por que a IA avançada e desalinhada pode causar uma catástrofe? da BlueDot Impact (2023)
3.5. Ninguém está esperto no alinhamento da Inteligência Geral Artificial de Leopold Aschenbrenner (2023)
3.6. Evitar a vulnerabilidade global extrema como um problema central da governança da IA da BlueDot Impact (2022)
3.7. Exercícios
3.8. (Leitura opcional) Exemplos erro de generalização do objetivo da DeepMind Safety Research (2023)

Semana 4 – Normas e regulamentos da IA
4.1. Texto de introdução da BlueDot Impact (2023)
4.2. Introdução à Parte 2 do Currículo de Governança da IA da BlueDot Impact (2023)
4.3. Regulamentação da IA de fronteira: gerenciando riscos emergentes para a segurança pública. Resumo e Sumário de Markus Anderljung, Joslyn Barnhart, Anton Korinek et al. (2023).
4.4. Avaliação de modelo para riscos extremos de Toby Shevlane (2023)
4.5. Normas e Avaliações de segurança para a IA de Beth Barnes (2023) Vídeo com legendas em português.
4.6. Lições dos dois experimentos em governança da IA no mundo de Matt O’Shaughnessy e Matt Sheehan (2023)
4.7. Como normas técnicas de segurança podem promover a segurança da Inteligência Artificial Transformadora de Cullen O’Keefe, Jade Leung e Markus Anderljung (2022)
4.8. Exercícios

Semana 5 – Tornar as regulamentações da IA globalmente relevantes por meio dos países líderes em regulamentações da IA
5.1. Texto introdutório da BlueDot Impact (2023)
5.2. Cartilha sobre chips de IA e governança da IA da BlueDot Impact (2023)
5.3. Introdução à governança computacional de Lennart Heim (2023)
5.4. O estado da IA em vários países – uma visão geral de Lizka Vaintrob (2023)
5.5. Corrida num campo minado: o problema da implementação de IA de Holden Karnofsky (2022)
5.6. Vencendo a competição por talentos técnicos de Remco Zwetsloot (2021) Vídeo com legendas em português.
5.7. (leitura opcional) Computação e IA transformadora – lista de leitura de Lennart Heim e Konstantin Pilz (2023)

Semana 6 – Tornar as regulamentações da IA globalmente relevantes por meio de acordos internacionais
6.1. Texto introdutório da BlueDot Impact (2023)
6.2. O que é preciso para pegar uma chinchila? Verificação de regras no treinamento de redes neurais de larga escala por meio do monitoramento de computação de Yonadav Shavit (2023)
6.3. Um tour pelas tecnologias criptográficas emergentes de Ben Garfinkel (2021)
6.4. Deter a Proliferação Nuclear: A Importância das Proteções da AIEA (Agência Internacional de Energia Atômica) – Capítulo 1: “O regime de não proliferação nuclear” de M. Rosenthal e WM Stern (2019)
6.5. Visões gerais de alguns modelos básicos de governos e cooperação internacional da BlueDot Impact (2022) Série de vídeos em Inglês
6.6. Exercícios

Semana 7 – Propostas adicionais
7.1. Texto introdutório da BlueDot Impact (2023)
7.2. Explorando instituições para a Governança da IA de Lewis Ho, Joslyn Barnhart, Robert Trager et al (2023)
7.3. Estatuto da OpenAI da OpenAI (2018)
7.4. Comunicado da OpenAI Parceria Limitada (OpenAI LP) da OpenAI (2019)
7.5. O que as empresas de IA podem fazer hoje para ajudar no século mais importante de Holden Karnofsky (2023)
7.6. 12 ideias provisórias para a política de IA dos EUA de Luke Muehlhauser (2023)
7.7. Vamos pensar em retardar a IA de Katja Grace (2022)
7.8. Governança da IA: uma pauta de pesquisa de Allan Dafoe (2018)
7.9. Exercícios

Semana 8 – Conselhos de Carreira
8.1. Texto introdutório da BlueDot Impact (2023)
8.2. Informações sobre carreira em pesquisa de estratégia de IA da BlueDot Impact (2022)
8.3. Informações sobre carreira em política de IA dos EUA da BlueDot Impact (2022)
8.4. Caminhos de segurança e governança da IA relacionados à China na 80.000 Horas (2022)
8.5. Informações sobre carreira em política de IA da Europa da BlueDot Impact (2022)
8.6. A Governança da IA precisa de trabalho técnico de Mauricio (2022)
8.7. Minhas impressões atuais sobre a escolha de carreira para longotermistas de Holden Karnofsky (2021)
8.8. Oportunidades de Financiamento de Michael Aird (2021)

Esse conteúdo foi traduzido a partir do curso original de Governança da IA elaborado pela Bluedot Impact e publicado originalmente no ano de 2023 aqui.

Eventuais divergências entre os textos aqui traduzidos e os encontrados na página podem ocorrer, dado que o curso passa por constantes atualizações.

Caso encontre algum conteúdo incorreto, link quebrado ou tenha uma sugestão de melhoria da tradução pedimos que entre em contato pelo e-mail: altruismoeficazbrasil@gmail.com

Essa é a tradução a partir do material da BlueDot Impact, conforme disponível no site em Setembro de 2023. Você pode conferir o material original aqui.

This is our translation of work done by BlueDot Impact, as of September 2023. You can see the original material here.