Diskriminierende Algorithmen EAF-Expert Lisa Hanstein im Interview bei Deutschlandfunk Nova

Vorurteilsbehaftete Algorithmen sind leider nichts Neues: Schwarze Menschen werden nicht richtig erkannt, Frauen nicht berücksichtigt oder runtergerankt.

Künstliche Intelligenz (KI) und Algorithmen bergen in Bezug auf Gleichberechtigung und Vielfalt nicht nur Chancen, sondern auch Risiken. So gibt es Beispiele von KI-basierten Recruiting-Werkzeugen, die auf Basis diskriminierender Daten Frauen systematisch benachteiligen oder Gesichtserkennungs-Apps, die Schwarze Menschen weniger gut erkennen und damit rassistische Stereotype reproduzieren.

Der Grund: Künstliche Intelligenz ist von Menschen entwickelt und kann somit bestehende Ungleichbehandlungen der analogen Welt in den digitalen Raum übertragen. Das muss nicht unbedingt die Absicht der Entwickler*innen sein, aber dennoch wirken sich bestimmte eigene Verzerrungen am Ende auf die Produktentwicklung aus.

Digitale Technologien sind also nicht per se neutral und fair, sondern können einen sogenannte Algorithmic Bias enthalten. Ein Algorithmic Bias, zu Deutsch algorithmische Voreingenommenheit, beschreibt systematische Fehler einer Maschine, eines digitalen Systems oder einer Anwendung, die zu unfairen Ergebnissen führen, z.B. die Privilegierung einer bestimmten Nutzer*innengruppe gegenüber anderen.

„Das Allerwichtigste“, so EAF-Expert und Algorithmus-Expertin Lisa Hanstein im Interview mit Deutschlandradio Nova, sei „sich bewusst zu werden, dass etwas technisch Entwickeltes nicht automatisch fair und neutral ist, sondern dass eine bestimmte Sicht auf die Dinge eben auch in das Produkt und das Ergebnis transportiert werden kann. Und das auch ohne böses Zutun."

Ihre Empfehlung an diejenigen, die eine KI entwickeln lautet: jeden Arbeitsschritt der Produktentwicklung daraufhin zu überprüfen, welche Verzerrungen eventuell mit eingeflossen sein könnten.

03. Mai 2022

JoinPolitics sucht politische Talente Bewerbungsschluss am 31. Mai 2022

JoinPolitics fördert politische Talente, die Lösungen für die großen Fragen unserer Zeit entwickeln und umsetzen. Ein Aufruf von EAF Expert Tannaz Falaknaz

29. April 2022

Stand with Ukrainian Women Newsletter Nr. 3

Der Krieg gegen die Ukraine ist in eine weitere Phase getreten. Die Nachrichten über Kriegsverbrechen, sexualisierte Gewalt und andere Gräueltaten bestürzen uns mehr denn je.

26. April 2022

Der Faktor Zeit ist entscheidend Die weitere Eskalation des Krieges und die Antwort Deutschlands

Nur eine militärisch starke Ukraine kann Russland an den Verhandlungstisch zwingen. Dafür braucht sie schnellstmöglich die entsprechenden Waffen, um sich verteidigen zu können. Deutschland hat hier eine besondere historische Verantwortung. Eine...

25. April 2022

Believe in us as we believe in ourselves Ein Brief aus Dnipro

Irina Gritsay ist eine unserer ukrainischen Partnerinnen im Projekt “Gemeinsam für Demokratie”. Aus Dnipro teilt sie mit uns ihre Erlebnisse, Gedanken und vor allem Gefühle nach zwei Monaten Krieg.

11. April 2022

Pressemitteilung der Berliner Erklärung Stand with Ukrainian Women

Wir fordern die Mitglieder der Bundesregierung auf, alles in ihrer Machtstehende zu unternehmen um die ukrainische Führung und die Bevölkerung in ihrem beispiellosen Einsatz für Souveränität, Freiheit und Demokratie effektiv zu unterstützen.

12.04.2022

Endlich wieder analog Netzwerktreffen der Helene Weber-Preisträgerinnen am ersten Aprilwochenende

Zum ersten Mal seit 2019 haben sich die Preisträgerinnen des Helene Netzwerkes wieder in Person getroffen. Die seit 2010 regelmäßig stattfindenden Termine dienen der Vernetzung und dem fachlichen und persönlichen Austausch.