Artwork

Conteúdo fornecido por Carnegie Mellon University Software Engineering Institute and Members of Technical Staff at the Software Engineering Institute. Todo o conteúdo do podcast, incluindo episódios, gráficos e descrições de podcast, é carregado e fornecido diretamente por Carnegie Mellon University Software Engineering Institute and Members of Technical Staff at the Software Engineering Institute ou por seu parceiro de plataforma de podcast. Se você acredita que alguém está usando seu trabalho protegido por direitos autorais sem sua permissão, siga o processo descrito aqui https://pt.player.fm/legal.
Player FM - Aplicativo de podcast
Fique off-line com o app Player FM !

Using Role-Playing Scenarios to Identify Bias in LLMs

45:07
 
Compartilhar
 

Fetch error

Hmmm there seems to be a problem fetching this series right now. Last successful fetch was on October 11, 2024 16:02 (29d ago)

What now? This series will be checked again in the next day. If you believe it should be working, please verify the publisher's feed link below is valid and includes actual episode links. You can contact support to request the feed be immediately fetched.

Manage episode 440233040 series 2487640
Conteúdo fornecido por Carnegie Mellon University Software Engineering Institute and Members of Technical Staff at the Software Engineering Institute. Todo o conteúdo do podcast, incluindo episódios, gráficos e descrições de podcast, é carregado e fornecido diretamente por Carnegie Mellon University Software Engineering Institute and Members of Technical Staff at the Software Engineering Institute ou por seu parceiro de plataforma de podcast. Se você acredita que alguém está usando seu trabalho protegido por direitos autorais sem sua permissão, siga o processo descrito aqui https://pt.player.fm/legal.

Harmful biases in large language models (LLMs) make AI less trustworthy and secure. Auditing for biases can help identify potential solutions and develop better guardrails to make AI safer. In this podcast from the Carnegie Mellon University Software Engineering Institute (SEI), Katie Robinson and Violet Turri, researchers in the SEI’s AI Division, discuss their recent work using role-playing game scenarios to identify biases in LLMs.

  continue reading

430 episódios

Artwork
iconCompartilhar
 

Fetch error

Hmmm there seems to be a problem fetching this series right now. Last successful fetch was on October 11, 2024 16:02 (29d ago)

What now? This series will be checked again in the next day. If you believe it should be working, please verify the publisher's feed link below is valid and includes actual episode links. You can contact support to request the feed be immediately fetched.

Manage episode 440233040 series 2487640
Conteúdo fornecido por Carnegie Mellon University Software Engineering Institute and Members of Technical Staff at the Software Engineering Institute. Todo o conteúdo do podcast, incluindo episódios, gráficos e descrições de podcast, é carregado e fornecido diretamente por Carnegie Mellon University Software Engineering Institute and Members of Technical Staff at the Software Engineering Institute ou por seu parceiro de plataforma de podcast. Se você acredita que alguém está usando seu trabalho protegido por direitos autorais sem sua permissão, siga o processo descrito aqui https://pt.player.fm/legal.

Harmful biases in large language models (LLMs) make AI less trustworthy and secure. Auditing for biases can help identify potential solutions and develop better guardrails to make AI safer. In this podcast from the Carnegie Mellon University Software Engineering Institute (SEI), Katie Robinson and Violet Turri, researchers in the SEI’s AI Division, discuss their recent work using role-playing game scenarios to identify biases in LLMs.

  continue reading

430 episódios

Todos os episódios

×
 
Loading …

Bem vindo ao Player FM!

O Player FM procura na web por podcasts de alta qualidade para você curtir agora mesmo. É o melhor app de podcast e funciona no Android, iPhone e web. Inscreva-se para sincronizar as assinaturas entre os dispositivos.

 

Guia rápido de referências