Artwork

Conteúdo fornecido por Krista Software. Todo o conteúdo do podcast, incluindo episódios, gráficos e descrições de podcast, é carregado e fornecido diretamente por Krista Software ou por seu parceiro de plataforma de podcast. Se você acredita que alguém está usando seu trabalho protegido por direitos autorais sem sua permissão, siga o processo descrito aqui https://pt.player.fm/legal.
Player FM - Aplicativo de podcast
Fique off-line com o app Player FM !

Understanding LLM Jailbreaking: How to Protect Your Generative AI Applications

23:03
 
Compartilhar
 

Manage episode 415707347 series 3435981
Conteúdo fornecido por Krista Software. Todo o conteúdo do podcast, incluindo episódios, gráficos e descrições de podcast, é carregado e fornecido diretamente por Krista Software ou por seu parceiro de plataforma de podcast. Se você acredita que alguém está usando seu trabalho protegido por direitos autorais sem sua permissão, siga o processo descrito aqui https://pt.player.fm/legal.

Generative AI, with its ability to produce human-quality text, translate languages, and write different kinds of creative content, is changing the way people work. But just like any powerful technology, it's not without its vulnerabilities. In this podcast, we explore a specific threat—LLM jailbreaking—and offer guidance on how to protect your generative AI applications.

What is LLM Jailbreaking?

LLM vandalism refers to manipulating large language models (LLMs) to behave in unintended or harmful ways. These attacks can range from stealing the underlying model itself to injecting malicious prompts that trick the LLM into revealing sensitive information or generating harmful outputs.

More at krista.ai

  continue reading

40 episódios

Artwork
iconCompartilhar
 
Manage episode 415707347 series 3435981
Conteúdo fornecido por Krista Software. Todo o conteúdo do podcast, incluindo episódios, gráficos e descrições de podcast, é carregado e fornecido diretamente por Krista Software ou por seu parceiro de plataforma de podcast. Se você acredita que alguém está usando seu trabalho protegido por direitos autorais sem sua permissão, siga o processo descrito aqui https://pt.player.fm/legal.

Generative AI, with its ability to produce human-quality text, translate languages, and write different kinds of creative content, is changing the way people work. But just like any powerful technology, it's not without its vulnerabilities. In this podcast, we explore a specific threat—LLM jailbreaking—and offer guidance on how to protect your generative AI applications.

What is LLM Jailbreaking?

LLM vandalism refers to manipulating large language models (LLMs) to behave in unintended or harmful ways. These attacks can range from stealing the underlying model itself to injecting malicious prompts that trick the LLM into revealing sensitive information or generating harmful outputs.

More at krista.ai

  continue reading

40 episódios

Todos os episódios

×
 
Loading …

Bem vindo ao Player FM!

O Player FM procura na web por podcasts de alta qualidade para você curtir agora mesmo. É o melhor app de podcast e funciona no Android, iPhone e web. Inscreva-se para sincronizar as assinaturas entre os dispositivos.

 

Guia rápido de referências