Artwork

Conteúdo fornecido por Dagbladet Information. Todo o conteúdo do podcast, incluindo episódios, gráficos e descrições de podcast, é carregado e fornecido diretamente por Dagbladet Information ou por seu parceiro de plataforma de podcast. Se você acredita que alguém está usando seu trabalho protegido por direitos autorais sem sua permissão, siga o processo descrito aqui https://pt.player.fm/legal.
Player FM - Aplicativo de podcast
Fique off-line com o app Player FM !

Kan kunstig intelligens være racistisk – og hvordan sikrer vi os, at den bliver fair?

18:47
 
Compartilhar
 

Manage episode 391152735 series 3541719
Conteúdo fornecido por Dagbladet Information. Todo o conteúdo do podcast, incluindo episódios, gráficos e descrições de podcast, é carregado e fornecido diretamente por Dagbladet Information ou por seu parceiro de plataforma de podcast. Se você acredita que alguém está usando seu trabalho protegido por direitos autorais sem sua permissão, siga o processo descrito aqui https://pt.player.fm/legal.
Avanceret maskinlæring kan hjælpe os med at sortere og overskue store datasæt. Men hvad gør vi, når algoritmerne tager fejl? Det spørger vi professor Aasa Feragen om i dette femte afsnit af ’Maskinstorm’. Aasa Feragen er professor på DTU Compute og forsker netop i fairness og bias i kunstig intelligens. Et område, som med algoritmernes gradvise indtog i både sundhedsvæsenet, socialforsorgen og retssystemet bliver stadig mere relevant at kaste et kritisk fokus på. For nok kan avanceret maskinlæring hjælpe os med at sortere og overskue store datasæt og for eksempel opdage tumorer i scanningsbilleder eller – som i COMPAS-sagen – risikovurdere adfærd baseret på statistisk data. Men hvad gør vi, når algoritmerne tager fejl? Eller sagt på en anden måde: Hvis vores overvågning bygger på kunstig intelligens, hvordan sikrer vi os så, at den kunstige intelligens er fair?

Din vært i dagens program er journalist Bo Elkjær.

Du kan lytte til podcasten ’Maskinstorm’ i din foretrukne podcastapp

Podcastserien er støttet af Novo Nordisk Fonden

  continue reading

16 episódios

Artwork
iconCompartilhar
 
Manage episode 391152735 series 3541719
Conteúdo fornecido por Dagbladet Information. Todo o conteúdo do podcast, incluindo episódios, gráficos e descrições de podcast, é carregado e fornecido diretamente por Dagbladet Information ou por seu parceiro de plataforma de podcast. Se você acredita que alguém está usando seu trabalho protegido por direitos autorais sem sua permissão, siga o processo descrito aqui https://pt.player.fm/legal.
Avanceret maskinlæring kan hjælpe os med at sortere og overskue store datasæt. Men hvad gør vi, når algoritmerne tager fejl? Det spørger vi professor Aasa Feragen om i dette femte afsnit af ’Maskinstorm’. Aasa Feragen er professor på DTU Compute og forsker netop i fairness og bias i kunstig intelligens. Et område, som med algoritmernes gradvise indtog i både sundhedsvæsenet, socialforsorgen og retssystemet bliver stadig mere relevant at kaste et kritisk fokus på. For nok kan avanceret maskinlæring hjælpe os med at sortere og overskue store datasæt og for eksempel opdage tumorer i scanningsbilleder eller – som i COMPAS-sagen – risikovurdere adfærd baseret på statistisk data. Men hvad gør vi, når algoritmerne tager fejl? Eller sagt på en anden måde: Hvis vores overvågning bygger på kunstig intelligens, hvordan sikrer vi os så, at den kunstige intelligens er fair?

Din vært i dagens program er journalist Bo Elkjær.

Du kan lytte til podcasten ’Maskinstorm’ i din foretrukne podcastapp

Podcastserien er støttet af Novo Nordisk Fonden

  continue reading

16 episódios

모든 에피소드

×
 
Loading …

Bem vindo ao Player FM!

O Player FM procura na web por podcasts de alta qualidade para você curtir agora mesmo. É o melhor app de podcast e funciona no Android, iPhone e web. Inscreva-se para sincronizar as assinaturas entre os dispositivos.

 

Guia rápido de referências