Índice
Semana 0: Introdução ao Aprendizado de Máquina
O aprendizado de máquina (machine learning, ML) passou por um revolução durante a década passada: quase todos os sistemas de ponta atualmente fazem uso do aprendizado de máquina.
Esta semana foca nos conceitos fundamentais do aprendizado de máquina necessários para entender o resto do curso. Os já competentes em aprendizado de máquina talvez possam pular esta semana inteiramente, ou revisar parte do básico se houver uma área que conhecerem menos.
Esta semana é feita para lhe dar um resumo de alto nível sobre as áreas da inteligência artificial e do aprendizado de máquina, e das técnicas usadas para treinar modelos de ML. Examinaremos as técnicas cruciais por trás do aprendizado de máquina (a principal abordagem ao aprendizado de máquina): redes neurais, descida do gradiente e retropropagação. Também veremos tipos de tarefas para as quais o aprendizado de máquina é usado: aprendizado supervisionado, aprendizado autossupervisionado e aprendizado por reforço.
Para aqueles com pouca base em ML, as leituras centrais desta semana serão 45 mais longas do que nas outras semanas. Recomendamos dedicar tempo trabalhando nelas todas, para fornecer um fundamento sólido para o resto do curso.
Ao fim da sessão, você deve poder:
- Explicar a taxonomia da inteligência artificial, aprendizado de máquina e aprendizado profundo
- Poder explicar os seguintes conceitos a alguém que seja novo ao aprendizado de máquina:
- Redes neurais
- Descida do gradiente
- Retropropagação
- Poder avaliar um modelo e discutir se foi treinado por meio de uma ou mais das seguintes tarefas:
- Aprendizado supervisionado
- Aprendizado não supervisionado
- Aprendizado por reforço
- Entender em termos amplos o que são transformadores e como eles são treinados
Recursos (cerca de 2h 45m)
Uma breve introdução ao aprendizado de máquina de Richard Ngo (2021) [Blog]
Tempo estimado: 20 min
Ngo fornece uma estrutura de alto nível para entender como diferentes tópicos na área da IA se conectam entre si e a história de vários paradigmas da IA.
Mas o que é uma rede neural? de 3Blue1Brown (2017) [Vídeo]
Tempo estimado: 20 min
Este vídeo, assim como os dois seguintes, fornecem mais detalhes e intuições sobre redes neurais e os algoritmos de otimização usados para treiná-las.
Use este vídeo para entender a arquitetura básica da rede neural.
Descida do gradiente, como redes neurais aprendem de 3Blue1Brown (2017) [Vídeo]
Tempo estimado: 20 min
Use este vídeo para entender como funciona a descida do gradiente, o método pelo qual as redes neurais são otimizadas.
O que a retropropagação realmente faz? de 3Blue1Brown (2021) [Vídeo]
Tempo estimado: 15 min
Este terceiro vídeo da série de 3Blue1Brown cobre a retropropagação, a técnica usada para implementar a descida do gradiente para redes neurais.
Aprendizado de máquina para humanos, parte 2.1 de Vishi Maini (2017) [Blog]
Tempo estimado: 15 min
Leia a parte 2.1: Aprendizado Supervisionado.
Esta leitura acessível explica o aprendizado supervisionado, a ideia central para a qual técnicas de aprendizado de máquina são normalmente usadas.
O que é aprendizado autossupervisionado? do CodeBasics (2021) [Vídeo]
Tempo estimado: 5 min
Esta leitura cobre a segunda tarefa mais proeminente de aprendizado de máquina: o aprendizado autossupervisionado.
Estes métodos são relevantes na medida em que são usados para treinar modelos de linguagem, que figurarão fortemente no curso como alguns dos modelos mais gerais que temos atualmente.
Introdução ao aprendizado por reforço de Hado van Hasselt (2021) [Vídeo]
Tempo estimado: 60 min
Assista de 2:00 a 1:02:10, terminando no início da seção intitulada Dentro do Agente: Modelos.
Este vídeo introduz o terceiro principal tipo de tarefa no aprendizado de máquina: o aprendizado por reforço, que tem sido usado para treinar redes para jogar uma ampla gama de jogos a um nível sobre-humano.
O aprendizado por reforço será um foco-chave no curso, visto que muitas vezes é pensado como um método que pode ser usado para dar aos modelos de IA metas que os seres humanos desejam alcançar.
Explicando os transformadores: entenda os modelos por trás do GPT, BERT e T5 da Google (2021) [Vídeo]
Tempo estimado: 10 min
Este vídeo introduz a história e inovações cruciais dos “transformadores”, que são novas arquiteturas de modelos por trás de modelos de linguagem de ponta.
Um dos benefícios-chave dos transformadores é a sua capacidade de entender a relação entre diferentes conceitos e permitir que os modelos se amplifiquem efetivamente.
Tradução: Luan Marques
Link para o original.