Para ver os demais cursos sobre IA disponibilizados, clique aqui.
Não sabe nada sobre esse tema? Então recomendamos que comece assistindo a este vídeo.
Este curso deixará você a par dos riscos extremos da IA e das abordagens de governança à mitigação desses riscos.
Neste curso, examinamos os riscos apresentados por sistemas de IA cada vez mais avançados, ideias para lidar com esses riscos por meio de normas e regulamentos e abordagens de política externa para promover a segurança da IA no âmbito internacional. Há muita incerteza e debate sobre estes assuntos, mas os recursos seguintes oferecem um ponto de partida útil para entender como reduzir riscos extremos no atual cenário da governança da IA.
Este curso foi desenvolvido por especialistas no assunto, com contribuições de líderes na área, como Ben Garfinkel, Haydn Belfield e Claire Boine. Veja quem mais está envolvido em nosso site.
Ao final deste curso, você deverá ser capaz de entender uma série de pautas no Alinhamento da IA e tomar decisões informadas sobre seus próximos passos para se envolver com o campo.
Visão geral do curso
Primeiro, vamos examinar os riscos apresentados pelos avanços em IA. O aprendizado de máquina avançou rapidamente nos últimos anos. Avanços adicionais ameaçam vários riscos catastróficos, incluindo IAs poderosas em conflito com os interesses humanos, bioterrorismo assistido pela IA e conflitos exacerbados pela IA.
Normas e regulamentos podem ajudar a lidar com riscos extremos provenientes da IA na fronteira tecnológica. Eles podem incluir avaliações de modelo e medidas de segurança. Uma abordagem para reduzir os riscos de Estados que não regulamentam a IA é que uma coalizão cautelosa de países lidere a IA (p. ex., por meio de controles de exportação de hardware, segurança da informação e política de imigração) e use essa liderança para reduzir os riscos. Outra abordagem é expandir a coalizão cautelosa, o que pode ser viável por meio de tratados com mecanismos de verificação que preservam a privacidade. Forneceremos recursos para ajudar você a examinar ambas as abordagens.
Outras ideias proeminentes (às vezes complementares) de governança da IA incluem a governança de laboratórios, que mitiga do uso indevido de sistemas de fronteira com capacidades gerais; o desaceleramento imediato da IA; e o “CERN para a IA”. Forneceremos brevemente uma visão geral dessas abordagens para que você saiba sobre o que outras pessoas estão discutindo.
A última semana discute sobre maneiras pelas quais você pode contribuir por meio de trabalho em políticas públicas, pesquisa estratégica, trabalho de “governação técnica” e outros caminhos.
Tempo
Esperamos que em cada seção leve de 2 para interagir com todos os materiais (16 horas ao todo). Além disso, há exercícios para ajudar você a pensar sobre os tópicos por conta própria e progredir em seu aprendizado sobre o alinhamento da IA. Organizamos o conteúdo em semanas para ajudá-lo a acompanhar seu engajamento com o currículo.
Semana 1: Introdução à IA e ao aprendizado de máquina
Semana 2: Introdução a potenciais riscos catastróficos da IA
Semana 3: Os desafios de alcançar a segurança da IA
Semana 4: Normas e regulamentos da IA
Semana 5: Fechar as lacunas regulatórias por meio da não proliferação
Semana 6: Fechar as lacunas regulatórias por meio de acordos internacionais
Semana 7: Propostas adicionais
Semana 8: Conselhos de carreira
Esse conteúdo foi traduzido a partir do curso original de Governança da IA elaborado pela Bluedot Impact e publicado originalmente no ano de 2023 aqui.
Eventuais divergências entre os textos aqui traduzidos e os encontrados na página podem ocorrer, dado que o curso passa por constantes atualizações.
Caso encontre algum conteúdo incorreto, link quebrado ou tenha uma sugestão de melhoria da tradução pedimos que entre em contato pelo e-mail: altruismoeficazbrasil@gmail.com
Essa é a tradução a partir do material da BlueDot Impact, conforme disponível no site em Setembro de 2023. Você pode conferir o material original aqui.
This is our translation of work done by BlueDot Impact, as of September 2023. You can see the original material here.