Curso de Governança da IA – Texto Introdutório da Semana 7

Semana 7: Propostas Adicionais

Até agora, estudamos um conjunto de ideias para a governança: regularmos o desenvolvimento de IA em escala industrial enquanto buscamos reduzir os riscos vindos de países que não promulgaram regulamentações. Nesta semana, estudaremos propostas de governança adicionais (muitas vezes complementares), ainda tendo por foco navegarmos pelos impactos da IA cada vez mais avançada. Essas propostas adicionais envolvem tópicos que incluem as políticas das empresas de IA, um “CERN para a IA”, a desaceleração do desenvolvimento de IA e o desenvolvimento de visões positivas para a IA.

Até o final da semana, você deve ser capaz de:

  • Explicar várias ideias de estratégia para enfrentar os desafios de segurança da IA e comparar seus pontos fortes e fracos.
  • Descrever várias maneiras como as empresas de IA podem ser importantes atores de governança (ou seja, decisões que elas tomam que moldam os impactos da IA).
  • Identificar duas razões pelas quais visões positivas compartilhadas para a IA podem ser muito benéficas e alguns desafios com o desenvolvimento de tais visões.

Recursos (cerca de 58 min)

Estatuto da OpenAI da OpenAI (2018) [Blog]

Tempo estimado: 2 min

Este breve documento e o documento abaixo são exemplos de uma empresa de IA assumindo compromissos relevantes para a segurança da IA e a distribuição ampla dos benefícios advindos da IA.

Comunicado da OpenAI Parceria Limitada (OpenAI LP) da OpenAI (2019) [Blog]

Tempo estimado: 4 min

Este é o segundo exemplo de uma empresa de IA assumindo compromissos relevantes para a segurança da IA e a distribuição ampla dos benefícios advindos da IA.

O que as empresas de IA podem fazer hoje para ajudar no século mais importante de Holden Karnofsky (2023) [Blog]

Tempo estimado: 12 min

Este artigo propõe várias ações pelas quais empresas de IA podem ajudar a mitigar os riscos advindos da IA avançada.

12 ideias provisórias para a política de IA dos EUA de Luke Muehlhauser (2023) [Artigo]

Tempo estimado: 6 min

Este artigo propõe algumas ideias de política de IA relativamente concretas. Algumas delas podem ajudar a implementar ideias regulatórias discutidas anteriormente neste curso, enquanto outras ideias aqui (especialmente certos financiamentos de pesquisa e desenvolvimento, responsabilidade esclarecida, mecanismos de rápida desativação e um porto seguro de antitruste estreito) podem ter caminhos para impacto não abordados anteriormente neste curso.

Vamos pensar em retardar a IA de Katja Grace (2022) [Blog]

Tempo estimado: 25 min

Leia até “A corrida da segurança ou suicídio”, depois leia a seção “Segurança a partir da velocidade…”.

Governança da IA: uma pauta de pesquisa de Allan Dafoe (2018) [Relatório]

Tempo estimado: 7 min

Seção “Governança Ideal da IA”

Muito do material deste curso foca em evitar catástrofes, mas isso deixa outras questões em aberto: quais visões positivas para um mundo com IA avançada a humanidade deveria buscar? Em particular, quais valores e mecanismos institucionais deveriam orientar o desenvolvimento de IAs cada vez mais poderosas? Como argumenta o então professor de Oxford, Allan Dafoe, “Essas questões antigas precisam ser investigadas com renovado vigor. Logo, podemos precisar implementar nossa melhor resposta”.

Exercícios


Tradução: Luan Marques e Fernando Moreno

Link para o original

Deixe um comentário