Artwork

Conteúdo fornecido por TEC INSTITUTE. Todo o conteúdo do podcast, incluindo episódios, gráficos e descrições de podcast, é carregado e fornecido diretamente por TEC INSTITUTE ou por seu parceiro de plataforma de podcast. Se você acredita que alguém está usando seu trabalho protegido por direitos autorais sem sua permissão, siga o processo descrito aqui https://pt.player.fm/legal.
Player FM - Aplicativo de podcast
Fique off-line com o app Player FM !

Precisamos repensar os mecanismos de segurança da IA

31:39
 
Compartilhar
 

Manage episode 443247095 series 2868855
Conteúdo fornecido por TEC INSTITUTE. Todo o conteúdo do podcast, incluindo episódios, gráficos e descrições de podcast, é carregado e fornecido diretamente por TEC INSTITUTE ou por seu parceiro de plataforma de podcast. Se você acredita que alguém está usando seu trabalho protegido por direitos autorais sem sua permissão, siga o processo descrito aqui https://pt.player.fm/legal.

Quais são as medidas necessárias para mitigar os efeitos nocivos do uso da Inteligência Artificial em diversas aplicações?

O debate sobre o uso dessa tecnologia já é antigo, com vários casos ao longo dos anos evidenciando como a falta de controle e transparência na coleta e aplicação de dados pode gerar problemas significativos.

Diversos reguladores ao redor do mundo discutem alternativas para proteger a sociedade de um uso irresponsável. Algumas empresas já implementam protocolos e processos internos para lidar com esses riscos, mas o assunto é complexo e inclui até casos como o desmembramento da OpenAI.

Uma abordagem interessante para lidar com os riscos é a criação de um "sandbox", uma prática já usada no setor financeiro em diversos países, incluindo o Brasil. Nesse modelo, novas tecnologias são testadas em um ambiente confinado, onde é possível validar sua segurança e garantir que os prejuízos sejam mínimos ou inexistentes antes de serem amplamente implementadas.

Neste episódio do podcast MIT Technology Review Brasil, Carlos Aros e Rafael Coimbra discutem o assunto.

Este podcast é um oferecimento do SAS.

  continue reading

529 episódios

Artwork
iconCompartilhar
 
Manage episode 443247095 series 2868855
Conteúdo fornecido por TEC INSTITUTE. Todo o conteúdo do podcast, incluindo episódios, gráficos e descrições de podcast, é carregado e fornecido diretamente por TEC INSTITUTE ou por seu parceiro de plataforma de podcast. Se você acredita que alguém está usando seu trabalho protegido por direitos autorais sem sua permissão, siga o processo descrito aqui https://pt.player.fm/legal.

Quais são as medidas necessárias para mitigar os efeitos nocivos do uso da Inteligência Artificial em diversas aplicações?

O debate sobre o uso dessa tecnologia já é antigo, com vários casos ao longo dos anos evidenciando como a falta de controle e transparência na coleta e aplicação de dados pode gerar problemas significativos.

Diversos reguladores ao redor do mundo discutem alternativas para proteger a sociedade de um uso irresponsável. Algumas empresas já implementam protocolos e processos internos para lidar com esses riscos, mas o assunto é complexo e inclui até casos como o desmembramento da OpenAI.

Uma abordagem interessante para lidar com os riscos é a criação de um "sandbox", uma prática já usada no setor financeiro em diversos países, incluindo o Brasil. Nesse modelo, novas tecnologias são testadas em um ambiente confinado, onde é possível validar sua segurança e garantir que os prejuízos sejam mínimos ou inexistentes antes de serem amplamente implementadas.

Neste episódio do podcast MIT Technology Review Brasil, Carlos Aros e Rafael Coimbra discutem o assunto.

Este podcast é um oferecimento do SAS.

  continue reading

529 episódios

Semua episode

×
 
Loading …

Bem vindo ao Player FM!

O Player FM procura na web por podcasts de alta qualidade para você curtir agora mesmo. É o melhor app de podcast e funciona no Android, iPhone e web. Inscreva-se para sincronizar as assinaturas entre os dispositivos.

 

Guia rápido de referências