Conteúdo fornecido por PyTorch, Edward Yang, and Team PyTorch. Todo o conteúdo do podcast, incluindo episódios, gráficos e descrições de podcast, é carregado e fornecido diretamente por PyTorch, Edward Yang, and Team PyTorch ou por seu parceiro de plataforma de podcast. Se você acredita que alguém está usando seu trabalho protegido por direitos autorais sem sua permissão, siga o processo descrito aqui https://pt.player.fm/legal.
Player FM - Aplicativo de podcast
Fique off-line com o app Player FM !
Fique off-line com o app Player FM !
Intro to distributed
MP3•Home de episódios
Manage episode 296991575 series 2921809
Conteúdo fornecido por PyTorch, Edward Yang, and Team PyTorch. Todo o conteúdo do podcast, incluindo episódios, gráficos e descrições de podcast, é carregado e fornecido diretamente por PyTorch, Edward Yang, and Team PyTorch ou por seu parceiro de plataforma de podcast. Se você acredita que alguém está usando seu trabalho protegido por direitos autorais sem sua permissão, siga o processo descrito aqui https://pt.player.fm/legal.
Today, Shen Li (mrshenli) joins me to talk about distributed computation in PyTorch. What is distributed? What kinds of things go into making distributed work in PyTorch? What's up with all of the optimizations people want to do here?
Further reading.
- PyTorch distributed overview https://pytorch.org/tutorials/beginner/dist_overview.html
- Distributed data parallel https://pytorch.org/docs/stable/notes/ddp.html
83 episódios
MP3•Home de episódios
Manage episode 296991575 series 2921809
Conteúdo fornecido por PyTorch, Edward Yang, and Team PyTorch. Todo o conteúdo do podcast, incluindo episódios, gráficos e descrições de podcast, é carregado e fornecido diretamente por PyTorch, Edward Yang, and Team PyTorch ou por seu parceiro de plataforma de podcast. Se você acredita que alguém está usando seu trabalho protegido por direitos autorais sem sua permissão, siga o processo descrito aqui https://pt.player.fm/legal.
Today, Shen Li (mrshenli) joins me to talk about distributed computation in PyTorch. What is distributed? What kinds of things go into making distributed work in PyTorch? What's up with all of the optimizations people want to do here?
Further reading.
- PyTorch distributed overview https://pytorch.org/tutorials/beginner/dist_overview.html
- Distributed data parallel https://pytorch.org/docs/stable/notes/ddp.html
83 episódios
Todos os episódios
×Bem vindo ao Player FM!
O Player FM procura na web por podcasts de alta qualidade para você curtir agora mesmo. É o melhor app de podcast e funciona no Android, iPhone e web. Inscreva-se para sincronizar as assinaturas entre os dispositivos.