digital kompakt 922

Algorithmic Bias: Wenn eine KI dich diskriminiert | #Diversity🏳️‍🌈

Podcast
Datum
19/12/2022
Episode #922 mit:
Kenza Ait Si Abbou
Robotik und AI-Expertin
Telekom
Podcast Host
Bundesregierung

EXPERTENGESPRÄCH | Eine künstliche Intelligenz kann nur so sensibel sein, wie der Mensch, der sie programmiert hat. Dadurch dass es auch beim Menschen immer noch viele Blindspots beim Thema Diversity gibt, spiegeln sich diese natürlich auch in der Maschine wieder. Im Gespräch mit Autorin Kenza Ait Si Abbou, erkunden Joel und Lunia diesmal, wie man diese Algorithmic Biases erkennt und korrigieren kann und wie man sowohl Mensch, als letztlich auch künstliche Intelligenz für Diversity besser sensibilisieren kann.

Du erfährst…

…warum Algorithmic Biases entstehen

…welche Algorithmic Biases in KI derzeit ein Problem sind

…ob man diese Biases einfach „reparieren“ kann

…wie die Methode des Reinforced Learnings mit dem Thema Diskriminierung umgeht

…ob zuviel Nachbearbeitung von KI-Ergebnissen auch eine Gefahr darstellen können

…mit welchen Methoden man Diskriminierung entlernen kann

…welche Empathie in die Führung spielt

…wie man Hierarchie-Barrieren innerhalb einer Firma abbauen kann

Diese Episode dreht sich schwerpunktmäßig um Diversity: Lasst uns Organisationen neu, offen und tolerant denken! Nachdem wir anfangs die Organisationsentwicklerin Marina Löwe und Ratepay-Gründerin Miriam Wohlfarth wiederholt vor dem Mirko hatten, um dich für Diversity zu sensibilisieren, diskutiert Joel mittlerweile regelmäßig mit Lunia Hara (Diconium) zu Themen rund um Leadership und Diversity. Dabei geht es den beiden explizit nicht um Mann oder Frau, sondern um die Schaffung von Empathie füreinander sowie ein ganzheitliches Bild und Verständnis für verschiedene Rollen und Perspektiven.


||||| PERSONEN |||||

👤 Joel Kaczmarek, Geschäftsführer digital kompakt

👤 Lunia Hara, LinkedIn Changemaker

👤 Kenza Ait Si Abbou, Autorin & Director Client Engineering DACH bei IBM


||||| SPONSOREN |||||

🔥 Übersicht aller Sponsoren
Diese Folge entstand in Partnerschaft mit Diconium


||||| KAPITEL |||||

(00:00:00) Vorstellung und Einführung ins Thema

(00:04:38) Was ist Algorithmic Bias?

(00:08:00) Kann man Algorithmic Bias reparieren?

(00:13:05) Reinforcement Learning

(00:17:18) Wie kann man Diversity lehren?

(00:20:45) Empathie in der Führung


||||| WIR |||||

💛 Mehr tolle Sachen von uns

👥 Wir von digital kompakt bemühen uns um die Verwendung einer geschlechtsneutralen Sprache. In Fällen, in denen dies nicht gelingt, gelten sämtliche Personenbezeichnungen für alle Geschlechter.

Ähnliche Podcasts