Divulgar a técnica de redes geradoras adversariais (GANs) no Brasil ensinando o básico necessário sobre para que se possa começar a acompanhar a literatura, a entender diferentes arquiteturas e aplicá-las em problemas próprios.
Neste primeiro módulo serão abordadas as teorias e implementações do GAN tradicional e do Conditional GAN. Jupyter notebooks serão oferecidos, através de repositório no github, com todos os códigos em Python usados durante o curso bem como as apresentações usadas nas explicações. Os participantes podem trazer seus próprios computadores e utilizar os Jupyter notebooks durante o curso, mas devido curto tempo não será um curso de hands-on, ou seja, não será disponibilizado tempo para que os participantes testem seus código enquanto o professor tira dúvidas.
Ministrante: Dr. Junior Koch, Principal Data Scientist @ Elo7
- Introdução a modelos geradores (GANs e VAEs)
- Teoria de GANs e treino adversarial
- Implementação do GAN tradicional
- Teoria do Conditional GAN
- Implementação do Conditional GAN
- Desafios básicos de estabilização de treino
- Conhecimento básico de python usado em ciência de dados
- Conhecimento básico de redes neurais (veja bibliografia sugerida)
- Desejável conhecimento básico de Pytorch
[1] Mas o que é uma rede Neural?
[2] Descida de gradiente, como as redes neurais aprendem.
[3] O que o backpropagation realmente faz?
[4] Goodfellow, Ian, et al. "Generative adversarial nets." Advances in neural information processing systems. 2014.
[5] Mirza, Mehdi, and Simon Osindero. "Conditional generative adversarial nets." arXiv preprint arXiv:1411.1784 (2014).
[6] Afinal como é possível criar um deepfake?
[7] Redes Geradoras Adversariais
[8] Estratégias e dicas para treinar GANs