#5 Warum ist KI manchmal rassistisch?

Wie funktioniert eigentlich Künstliche Intelligenz und warum ist es fatal, wenn wir selbstlernender Software menschliche Vorurteile einprogrammieren? Das erklärt uns Kenza Ait Si Abbou Lyadini. Die Ingenieurin ist Expertin für Künstliche Intelligenz und arbeitet bei der Telekom als Senior Manager Robotics and Artifical Intelligence. Wenn ihr Fragen zu dieser Folge habt oder Anregungen, dann schreibt uns gerne: shelikestech@ndr.de Schreibt uns auch in unserer Umfrage, wie euch der Podcast gefällt. Was machen wir gut, was sollen wir besser machen? Die Umfrage dauert nur 10 Minuten ;-) https://umfrage-ndr.limequery.com/767564?lang=de Und hier sind die Show-Notes zur Folge #5 über KI: We need more diversity in Al development now! | Kenza Ait Si Abbou Lyadini | TEDxHamburg https://www.youtube.com/watch?v=5AgIduLQdqg Dokumentation “Face it” 2019 https://www.tagesspiegel.de/kultur/doku-face-it-im-kino-gesichtserkennung-fuer-alle/24695780.html Rassismus durch Google Algorithmus https://algorithmwatch.org/en/story/google-vision-racism/ Russische Demonstranten von Oppositionsdemos per Gesichtserkennung erkannt https://netzpolitik.org/2017/russische-demonstranten-per-gesichtserkennungs-software-identifiziert/ Verhaftung aufgrund von fehlerhafter Gesichtserkennung in Detroit https://www.npr.org/2020/06/24/882683463/the-computer-got-it-wrong-how-facial-recognition-led-to-a-false-arrest-in-michig?t=1597237602629 Clearview.ai: Wenn Milliardäre Gesichtserkennung als Spionage-Spielzeug nutzen https://www.sueddeutsche.de/digital/clearview-gesichtserkennung-spionage-datenschutz-1.4835272 Clearview AI verweigert Zusammenarbeit mit deutscher Datenschutzaufsicht https://netzpolitik.org/2020/gesichtserkennung-clearview-ai-verweigert-zusammenarbeit-mit-deutscher-datenschutzaufsicht/ FindFace: Die Erkennungsmaschine aus Russland https://www.spiegel.de/netzwelt/web/findface-app-mit-gesichtserkennung-loest-hype-in-russland-aus-a-1092951.html PimEye: Eine polnische Firma schafft gerade unsere Anonymität ab https://netzpolitik.org/2020/gesichter-suchmaschine-pimeyes-schafft-anonymitaet-ab/ Fooling Image Recognition with Adversarial Learning - zwei Beispiele: https://www.youtube.com/watch?v=qPxlhGSG0tc&feature=emb_logo https://www.theregister.com/2017/11/06/mit_fooling_ai/ Störmuster durch Pixelmanipulationen https://www.heise.de/hintergrund/Pixelmuster-irritieren-die-KI-autonomer-Fahrzeuge-4852995.html http://sandlab.cs.uchicago.edu/fawkes/ https://www.nytimes.com/2020/08/03/technology/fawkes-tool-protects-photos-from-facial-recognition.html https://www.youtube.com/watch?v=AWrI0EuYW6A Apple Card: Weiblich, Ehefrau, kreditunwürdig? https://www.zeit.de/digital/datenschutz/2019-11/apple-card-kreditvergabe-diskriminierung-frauen-algorithmen-goldman-sachs/

Om Podcasten

Jung, weiblich, genial: Im Tech-Podcast von NDR Info sucht die Tech-Journalistin Svea Eckert immer nach Antworten von Expertinnen aus der IT-Welt. In aufwendigen Recherchen taucht sie ein in die Welt der Querdenker, die sich über Telegram oder YouTube radikalisieren. Sie begegnet auch angeblichen Coaches, die Magersüchtige auf Instagram anschreiben. Svea nimmt euch in diesem Podcast mit auf ihre Recherchen, damit ihr die Tech-Welt besser versteht. Mit Experimenten zeigt sie euch, was gerade nicht so gut läuft und welche Ideen es gibt, die Technik für uns alle etwas besser zu machen.