Diskriminierende Algorithmen EAF-Expert Lisa Hanstein im Interview bei Deutschlandfunk Nova

Vorurteilsbehaftete Algorithmen sind leider nichts Neues: Schwarze Menschen werden nicht richtig erkannt, Frauen nicht berücksichtigt oder runtergerankt.

Künstliche Intelligenz (KI) und Algorithmen bergen in Bezug auf Gleichberechtigung und Vielfalt nicht nur Chancen, sondern auch Risiken. So gibt es Beispiele von KI-basierten Recruiting-Werkzeugen, die auf Basis diskriminierender Daten Frauen systematisch benachteiligen oder Gesichtserkennungs-Apps, die Schwarze Menschen weniger gut erkennen und damit rassistische Stereotype reproduzieren.

Der Grund: Künstliche Intelligenz ist von Menschen entwickelt und kann somit bestehende Ungleichbehandlungen der analogen Welt in den digitalen Raum übertragen. Das muss nicht unbedingt die Absicht der Entwickler*innen sein, aber dennoch wirken sich bestimmte eigene Verzerrungen am Ende auf die Produktentwicklung aus.

Digitale Technologien sind also nicht per se neutral und fair, sondern können einen sogenannte Algorithmic Bias enthalten. Ein Algorithmic Bias, zu Deutsch algorithmische Voreingenommenheit, beschreibt systematische Fehler einer Maschine, eines digitalen Systems oder einer Anwendung, die zu unfairen Ergebnissen führen, z.B. die Privilegierung einer bestimmten Nutzer*innengruppe gegenüber anderen.

„Das Allerwichtigste“, so EAF-Expert und Algorithmus-Expertin Lisa Hanstein im Interview mit Deutschlandradio Nova, sei „sich bewusst zu werden, dass etwas technisch Entwickeltes nicht automatisch fair und neutral ist, sondern dass eine bestimmte Sicht auf die Dinge eben auch in das Produkt und das Ergebnis transportiert werden kann. Und das auch ohne böses Zutun."

Ihre Empfehlung an diejenigen, die eine KI entwickeln lautet: jeden Arbeitsschritt der Produktentwicklung daraufhin zu überprüfen, welche Verzerrungen eventuell mit eingeflossen sein könnten.

18.01.2022

Roundtable zu geschlechtsbezogener digitaler Gewalt Abschluss der Veranstaltungsreihe

Am Mittwoch, den 12. Januar fand der letzte Roundtable zum Thema „Geschlechtsbezogene Gewalt im digitalen Raum“ statt.

21.12.2021

Frohe Festtage 2021 Wir freuen uns auf ein Wiedersehen im neuen Jahr voller spannender Projekte!

Das Team der EAF Berlin wünscht allen Partner*innen und Unterstützer*innen eine fröhliche Weihnachtszeit und Mut, Elan und Energie, um kraftvoll ins Jahr 2022 zu starten.

19.12.2021

Aktionsprogramm Kommune - Frauen in die Politik Das sind die zehn Partner-Regionen!

Die Kommunalpolitik ist die Basis der Demokratie: Doch immer noch entscheiden viel zu wenig Frauen über die Geschicke ihrer Gemeinde, ihrer Stadt oder ihres Landkreises. Das will das Aktionsprogramm gemeinsam mit starken Partnern ändern!

18.12.2021

Kommunalpolitisches Empowerment-Programm Studentinnen diskutieren mit Gleichstellungsbeauftragten

Bei einem Begleitseminar am zweiten Dezemberwochenende konnten die Studentinnen Einblicke in die Vielfalt kommunalpolitischer Arbeit gewinnen.

17.12.2021

Ein starkes Bündnis gegen Sexismus Erstes Netzwerktreffen der Unterzeichnenden

Eine Organisationskultur, in welcher Sexismus und sexualisierte Gewalt keinen Platz haben: Das ist das erklärte Ziel der über 200 unterzeichnenden Organisationen der „Gemeinsamen Erklärung gegen Sexismus und sexuelle Belästigung“.

17.11.2021

Digitalisierung geschlechtergerecht gestalten Veranstaltungsreihe zum Dritten Gleichstellungsbericht

Seit Juni 2021 liegt der Dritte Gleichstellungsbericht der Bundesregierung vor.