Artwork

Conteúdo fornecido por Canal Peixe Babel. Todo o conteúdo do podcast, incluindo episódios, gráficos e descrições de podcast, é carregado e fornecido diretamente por Canal Peixe Babel ou por seu parceiro de plataforma de podcast. Se você acredita que alguém está usando seu trabalho protegido por direitos autorais sem sua permissão, siga o processo descrito aqui https://pt.player.fm/legal.
Player FM - Aplicativo de podcast
Fique off-line com o app Player FM !

Racismo em Algoritmos: Viés racial em Deep Fakes

48:48
 
Compartilhar
 

Manage episode 298858892 series 2964733
Conteúdo fornecido por Canal Peixe Babel. Todo o conteúdo do podcast, incluindo episódios, gráficos e descrições de podcast, é carregado e fornecido diretamente por Canal Peixe Babel ou por seu parceiro de plataforma de podcast. Se você acredita que alguém está usando seu trabalho protegido por direitos autorais sem sua permissão, siga o processo descrito aqui https://pt.player.fm/legal.

Recentemente uma técnica de “aumento de resolução de imagens” foi popularizada através de um tweet. Uma limitação supostamente inesperada rapidamente veio à tona graças à comunidade do Twitter: o método é incapaz de lidar com imagens de pessoas não-brancas, com destaque a asiáticos e pretos.

O viés racial em algoritmos baseados em aprendizado de máquina recebeu um grande destaque com a popularização de métodos generativos, capazes de produzir rostos de pessoas que não existem. As famosas #DeepFake se preferir. Apesar de existirem redes generativas capazes de produzir imagens muito diversas, nem todo método tem essa preocupação inerentemente. Por isso chamamos duas mulheres MARAVILHOSAS para discutirmos os impactos desse tipo de trabalho, as possíveis soluções e porquê a academia deve se preocupar com o viés de dados: a Nina da Hora e a Clara Matheus do Mimimidias.

Nina da Hora:
Twitter e Instagram @ninadhora
Ogunhê Podcast https://anchor.fm/ana-carolina-da-hora

Clara Matheus:
Twitter @claramatheus
Instragram @claramatheus_
Mimimidias https://www.youtube.com/channel/UCg0CfiR_iKjBOYgeHps17BA

Vídeos citados:
Sueli Carneiro: Ciência e racismo
https://www.youtube.com/watch?v=gBYk4ePmS6s
Sabrina Fernandes: Nem todo homem é machista
https://www.youtube.com/watch?v=MdoJnJTEj88

Nossa playlist de Deep Fake https://www.youtube.com/playlist?list=PL3Wx5P4NOzUjqE52_NNz1HOwAcP_FtwFD

######## Referências ########

-- Sobre o Face Depixelizer (Algoritmo PULSE):
Tweet original: https://twitter.com/tg_bomze/status/1274098682284163072
Colab: https://colab.research.google.com/github/tg-bomze/Face-Depixelizer/blob/master/Face_Depixelizer_Eng.ipynb
GitHub: https://github.com/adamian98/pulse#data
Paper: http://openaccess.thecvf.com/content_CVPR_2020/papers/Menon_PULSE_Self-Supervised_Photo_Upsampling_via_Latent_Space_Exploration_of_Generative_CVPR_2020_paper.pdf
Página do Projeto: http://pulse.cs.duke.edu/

Twitter da Dr. Timnit Gebru:
https://twitter.com/timnitGebru/
Post que apresenta todas as threads de Twitter comentadas no vídeo:
https://thegradient.pub/pulse-lessons/

Uma aula sobre viés de dados em Machine Learning, apresentada pela Margaret Mitchell, pesquisadora sênior da Google AI: Slides:
https://web.stanford.edu/class/archive/cs/cs224n/cs224n.1194/slides/cs224n-2019-lecture19-bias.pdf
Vídeo: http://onlinehub.stanford.edu/youtube-cs224n-natural-language-processing-with-deep-learning-winter-2019/stanford-cs224n-nlp-with-deep-learning-winter-2019-lecture-19-bias-in-ai

  continue reading

24 episódios

Artwork
iconCompartilhar
 
Manage episode 298858892 series 2964733
Conteúdo fornecido por Canal Peixe Babel. Todo o conteúdo do podcast, incluindo episódios, gráficos e descrições de podcast, é carregado e fornecido diretamente por Canal Peixe Babel ou por seu parceiro de plataforma de podcast. Se você acredita que alguém está usando seu trabalho protegido por direitos autorais sem sua permissão, siga o processo descrito aqui https://pt.player.fm/legal.

Recentemente uma técnica de “aumento de resolução de imagens” foi popularizada através de um tweet. Uma limitação supostamente inesperada rapidamente veio à tona graças à comunidade do Twitter: o método é incapaz de lidar com imagens de pessoas não-brancas, com destaque a asiáticos e pretos.

O viés racial em algoritmos baseados em aprendizado de máquina recebeu um grande destaque com a popularização de métodos generativos, capazes de produzir rostos de pessoas que não existem. As famosas #DeepFake se preferir. Apesar de existirem redes generativas capazes de produzir imagens muito diversas, nem todo método tem essa preocupação inerentemente. Por isso chamamos duas mulheres MARAVILHOSAS para discutirmos os impactos desse tipo de trabalho, as possíveis soluções e porquê a academia deve se preocupar com o viés de dados: a Nina da Hora e a Clara Matheus do Mimimidias.

Nina da Hora:
Twitter e Instagram @ninadhora
Ogunhê Podcast https://anchor.fm/ana-carolina-da-hora

Clara Matheus:
Twitter @claramatheus
Instragram @claramatheus_
Mimimidias https://www.youtube.com/channel/UCg0CfiR_iKjBOYgeHps17BA

Vídeos citados:
Sueli Carneiro: Ciência e racismo
https://www.youtube.com/watch?v=gBYk4ePmS6s
Sabrina Fernandes: Nem todo homem é machista
https://www.youtube.com/watch?v=MdoJnJTEj88

Nossa playlist de Deep Fake https://www.youtube.com/playlist?list=PL3Wx5P4NOzUjqE52_NNz1HOwAcP_FtwFD

######## Referências ########

-- Sobre o Face Depixelizer (Algoritmo PULSE):
Tweet original: https://twitter.com/tg_bomze/status/1274098682284163072
Colab: https://colab.research.google.com/github/tg-bomze/Face-Depixelizer/blob/master/Face_Depixelizer_Eng.ipynb
GitHub: https://github.com/adamian98/pulse#data
Paper: http://openaccess.thecvf.com/content_CVPR_2020/papers/Menon_PULSE_Self-Supervised_Photo_Upsampling_via_Latent_Space_Exploration_of_Generative_CVPR_2020_paper.pdf
Página do Projeto: http://pulse.cs.duke.edu/

Twitter da Dr. Timnit Gebru:
https://twitter.com/timnitGebru/
Post que apresenta todas as threads de Twitter comentadas no vídeo:
https://thegradient.pub/pulse-lessons/

Uma aula sobre viés de dados em Machine Learning, apresentada pela Margaret Mitchell, pesquisadora sênior da Google AI: Slides:
https://web.stanford.edu/class/archive/cs/cs224n/cs224n.1194/slides/cs224n-2019-lecture19-bias.pdf
Vídeo: http://onlinehub.stanford.edu/youtube-cs224n-natural-language-processing-with-deep-learning-winter-2019/stanford-cs224n-nlp-with-deep-learning-winter-2019-lecture-19-bias-in-ai

  continue reading

24 episódios

Todos os episódios

×
 
Loading …

Bem vindo ao Player FM!

O Player FM procura na web por podcasts de alta qualidade para você curtir agora mesmo. É o melhor app de podcast e funciona no Android, iPhone e web. Inscreva-se para sincronizar as assinaturas entre os dispositivos.

 

Guia rápido de referências