Diskriminierende Algorithmen EAF-Expert Lisa Hanstein im Interview bei Deutschlandfunk Nova

Vorurteilsbehaftete Algorithmen sind leider nichts Neues: Schwarze Menschen werden nicht richtig erkannt, Frauen nicht berücksichtigt oder runtergerankt.

Künstliche Intelligenz (KI) und Algorithmen bergen in Bezug auf Gleichberechtigung und Vielfalt nicht nur Chancen, sondern auch Risiken. So gibt es Beispiele von KI-basierten Recruiting-Werkzeugen, die auf Basis diskriminierender Daten Frauen systematisch benachteiligen oder Gesichtserkennungs-Apps, die Schwarze Menschen weniger gut erkennen und damit rassistische Stereotype reproduzieren.

Der Grund: Künstliche Intelligenz ist von Menschen entwickelt und kann somit bestehende Ungleichbehandlungen der analogen Welt in den digitalen Raum übertragen. Das muss nicht unbedingt die Absicht der Entwickler*innen sein, aber dennoch wirken sich bestimmte eigene Verzerrungen am Ende auf die Produktentwicklung aus.

Digitale Technologien sind also nicht per se neutral und fair, sondern können einen sogenannte Algorithmic Bias enthalten. Ein Algorithmic Bias, zu Deutsch algorithmische Voreingenommenheit, beschreibt systematische Fehler einer Maschine, eines digitalen Systems oder einer Anwendung, die zu unfairen Ergebnissen führen, z.B. die Privilegierung einer bestimmten Nutzer*innengruppe gegenüber anderen.

„Das Allerwichtigste“, so EAF-Expert und Algorithmus-Expertin Lisa Hanstein im Interview mit Deutschlandradio Nova, sei „sich bewusst zu werden, dass etwas technisch Entwickeltes nicht automatisch fair und neutral ist, sondern dass eine bestimmte Sicht auf die Dinge eben auch in das Produkt und das Ergebnis transportiert werden kann. Und das auch ohne böses Zutun."

Ihre Empfehlung an diejenigen, die eine KI entwickeln lautet: jeden Arbeitsschritt der Produktentwicklung daraufhin zu überprüfen, welche Verzerrungen eventuell mit eingeflossen sein könnten.

31.03.2022

Gemeinsame Erklärung zur Förderung von Parität und Demokratie Delegationsreise nach Frankreich

EAF-Vorstandsvorsitzende Helga Lukoschat und EAF-Director Cécile Weidhofer besuchen gemeinsam mit Helene Weber Preisträgerinnen die französische Region Okzitanien.

31.03.2022

Migration verbindet Zweiter Durchgang des Mentoring-Programms Vielfalt abgeschlossen

Mit einer feierlichen Abschlusstagung ging das letzte Seminar des zweiten Durchgangs im Mentoring-Programm „Mein Hintergrund? Ich will in den Vordergrund“ zu Ende. Fünf Monate lang kamen Mentorinnen und Mentees zusammen, tauschten sich überparteilich...

18. März 2022

Stand with Ukrainian Women Gemeinsam für Demokratie

EAF-Vorstandsvorsitzende Dr. Helga Lukoschat erklärt, wie aus einem deutsch-ukrainischen Projekt für Kommunalpolitikerinnen über Nacht ein Nothilfe-Programm wurde.

17. März 2022

Ein unfassbarer Albtraum Ukrainische Projektpartnerinnen der EAF berichten

Die EAF hat mehrere Videokonferenzen mit den ukrainischen Projektpartnerinnen organisiert, um über die Situation vor Ort zu informieren, den politischen Forderungen der Partnerinnen Gehör zu verschaffen und  Möglichkeiten der praktischen...

16. März 2022

In her own words Voices of our Ukrainian project partners

An dieser Stelle möchten wir unseren Projektpartnerinnen die Möglichkeit geben, uns ihre Botschaften, Gedanken und Sichtweisen selbst mitzuteilen. Damit diese authentisch bleiben, verändern wir sie nicht.

14. März 2022

Yes she can Kommunalpolitisches Empowerment-Programm für Studentinnen erfolgreich abgeschlossen

27 Studentinnen der Europa-Universität Viadrina, der Universität Leipzig sowie der Universitätsallianz Ruhr haben in den vergangenen fünf Monaten den zweiten Durchgang des Empowerment-Programm für Studentinnen des Helene Weber Kollegs absolviert....