Algorithmic Bias: Wenn eine KI dich diskriminiert | #DiversityđŸłïžâ€đŸŒˆ

31:44
 
Compartilhar
 

Manage episode 350151482 series 1058764
Por Joel Kaczmarek and Digital kompakt descoberto pelo Player FM e nossa comunidade - Os direitos autorais são de propriedade do editor, não do Player FM, e o åudio é transmitido diretamente de seus servidores. Toque no botão Assinar para acompanhar as atualizaçÔes no Player FM, ou copie a feed URL em outros aplicativos de podcast.
Warum eine empathische Arbeitswelt wichtig ist und wie sie KIs beeinflusst

EXPERTENGESPRÄCH | Eine kĂŒnstliche Intelligenz kann nur so sensibel sein, wie der Mensch, der sie programmiert hat. Dadurch dass es auch beim Menschen immer noch viele Blindspots beim Thema Diversity gibt, spiegeln sich diese natĂŒrlich auch in der Maschine wieder. Im GesprĂ€ch mit Autorin Kenza Ait Si Abbou, erkunden Joel und Lunia diesmal, wie man diese Algorithmic Biases erkennt und korrigieren kann und wie man sowohl Mensch, als letztlich auch kĂŒnstliche Intelligenz fĂŒr Diversity besser sensibilisieren kann.
Du erfÀhrst


warum Algorithmic Biases entstehen

welche Algorithmic Biases in KI derzeit ein Problem sind

ob man diese Biases einfach „reparieren“ kann

wie die Methode des Reinforced Learnings mit dem Thema Diskriminierung umgeht

ob zuviel Nachbearbeitung von KI-Ergebnissen auch eine Gefahr darstellen können

mit welchen Methoden man Diskriminierung entlernen kann

welche Empathie in die FĂŒhrung spielt

wie man Hierarchie-Barrieren innerhalb einer Firma abbauen kann
Diese Episode dreht sich schwerpunktmĂ€ĂŸig um Diversity: Lasst uns Organisationen neu, offen und tolerant denken! Nachdem wir anfangs die Organisationsentwicklerin Marina Löwe und Ratepay-GrĂŒnderin Miriam Wohlfarth wiederholt vor dem Mirko hatten, um dich fĂŒr Diversity zu sensibilisieren, diskutiert Joel mittlerweile regelmĂ€ĂŸig mit Lunia Hara (Diconium) zu Themen rund um Leadership und Diversity. Dabei geht es den beiden explizit nicht um Mann oder Frau, sondern um die Schaffung von Empathie fĂŒreinander sowie ein ganzheitliches Bild und VerstĂ€ndnis fĂŒr verschiedene Rollen und Perspektiven.



||||| PERSONEN |||||
đŸ‘€ Joel Kaczmarek, GeschĂ€ftsfĂŒhrer digital kompakt
đŸ‘€ Lunia Hara, LinkedIn Changemaker
đŸ‘€ Kenza Ait Si Abbou, Autorin & Director Client Engineering DACH bei IBM


||||| SPONSOREN |||||
đŸ”„ Übersicht aller Sponsoren
Diese Folge entstand in Partnerschaft mit Diconium


||||| KAPITEL |||||
(00:00:00) Vorstellung und EinfĂŒhrung ins Thema
(00:04:38) Was ist Algorithmic Bias?
(00:08:00) Kann man Algorithmic Bias reparieren?
(00:13:05) Reinforcement Learning
(00:17:18) Wie kann man Diversity lehren?
(00:20:45) Empathie in der FĂŒhrung


||||| WIR |||||
💛 Mehr tolle Sachen von uns
đŸ‘„ Wir von digital kompakt bemĂŒhen uns um die Verwendung einer geschlechtsneutralen Sprache. In FĂ€llen, in denen dies nicht gelingt, gelten sĂ€mtliche Personenbezeichnungen fĂŒr alle Geschlechter.

917 episĂłdios