Artwork

Conteúdo fornecido por Aaron Bergman. Todo o conteúdo do podcast, incluindo episódios, gráficos e descrições de podcast, é carregado e fornecido diretamente por Aaron Bergman ou por seu parceiro de plataforma de podcast. Se você acredita que alguém está usando seu trabalho protegido por direitos autorais sem sua permissão, siga o processo descrito aqui https://pt.player.fm/legal.
Player FM - Aplicativo de podcast
Fique off-line com o app Player FM !

Is AI an existential risk? A discussion | Ryan Kidd, James Fodor | EAGxAustralia 2023

56:07
 
Compartilhar
 

Manage episode 424733775 series 3503936
Conteúdo fornecido por Aaron Bergman. Todo o conteúdo do podcast, incluindo episódios, gráficos e descrições de podcast, é carregado e fornecido diretamente por Aaron Bergman ou por seu parceiro de plataforma de podcast. Se você acredita que alguém está usando seu trabalho protegido por direitos autorais sem sua permissão, siga o processo descrito aqui https://pt.player.fm/legal.

Ryan is Co-Director of the ML Alignment Theory Scholars Program, a Board Member and Co-Founder of the London Initiative for Safe AI, and a Manifund Regrantor. Previously, he completed a PhD in Physics at the University of Queensland and ran UQ’s Effective Altruism student group for ~3 years. Ryan’s ethics are largely preference utilitarian and cosmopolitan; he is deeply concerned about near-term x-risk and safeguarding the long-term future. James Fodor is a PhD student in the Decision, Risk and Financial Sciences Program. He completed graduate studies in physics and economics at the University of Melbourne, and a masters degree in neuroscience at the Australian National University. He has also worked as a research assistant in structural biology at Monash University. Outside of research, James has a keen interest in science, philosophy, and critical thinking. He is passionate about Effective Altruism, including causes such as global poverty and animal welfare.

  continue reading

159 episódios

Artwork
iconCompartilhar
 
Manage episode 424733775 series 3503936
Conteúdo fornecido por Aaron Bergman. Todo o conteúdo do podcast, incluindo episódios, gráficos e descrições de podcast, é carregado e fornecido diretamente por Aaron Bergman ou por seu parceiro de plataforma de podcast. Se você acredita que alguém está usando seu trabalho protegido por direitos autorais sem sua permissão, siga o processo descrito aqui https://pt.player.fm/legal.

Ryan is Co-Director of the ML Alignment Theory Scholars Program, a Board Member and Co-Founder of the London Initiative for Safe AI, and a Manifund Regrantor. Previously, he completed a PhD in Physics at the University of Queensland and ran UQ’s Effective Altruism student group for ~3 years. Ryan’s ethics are largely preference utilitarian and cosmopolitan; he is deeply concerned about near-term x-risk and safeguarding the long-term future. James Fodor is a PhD student in the Decision, Risk and Financial Sciences Program. He completed graduate studies in physics and economics at the University of Melbourne, and a masters degree in neuroscience at the Australian National University. He has also worked as a research assistant in structural biology at Monash University. Outside of research, James has a keen interest in science, philosophy, and critical thinking. He is passionate about Effective Altruism, including causes such as global poverty and animal welfare.

  continue reading

159 episódios

Todos los episodios

×
 
Loading …

Bem vindo ao Player FM!

O Player FM procura na web por podcasts de alta qualidade para você curtir agora mesmo. É o melhor app de podcast e funciona no Android, iPhone e web. Inscreva-se para sincronizar as assinaturas entre os dispositivos.

 

Guia rápido de referências