„Technik ist wie ein Spiegel der Gesellschaft, der schlicht wiedergibt, was wir als Individuen mitbringen“ EAF-Expertin Lisa Hanstein über Chancen und Risiken von künstlicher Intelligenz

Von diskriminierenden Algorithmen bis zu rassistischen Seifenspendern: Künstliche Intelligenz (KI) ist nicht so neutral, wie sie auf den ersten Blick erscheinen mag. Worauf das zurückzuführen ist, erklärt unsere KI-Expertin in der taz.

Wenn digitale Anwendungen diskriminieren, kann das auch an den Menschen liegen, die an ihrer Entwicklung beteiligt sind. Eine homogene Gruppe kann unwissentlich Produkte entwerfen, die nicht für alle Menschen gleichermaßen funktionieren, weil ihre eigenen unbewussten Denkmuster und Stereotypisierungen ins Produkt transferiert werden oder sie nicht alle End-User*innen in ihrer Diversität mitdenken. In Deutschland sind an der Entwicklung von IT vor allem Männer beteiligt. Sie machten 2018 einen Anteil von 83 Prozent der in der IT-Branche Angestellten aus. Bestehende Ungleichbehandlungen der analogen Welt werden so quasi in den digitalen Raum übertragen.

Auf diese Weise kann es beispielsweise dazu kommen, dass Frauen durch die Stimmverarbeitung in Onlinegesprächen benachteiligt werden. Anteile ihrer Sprache werden teilweise nicht übertragen, weil höhere Frequenzen von den Programmen ausgedünnt werden. Das Ergebnis: Redebeiträge von Frauen werden häufig als deutlich weniger überzeugend wahrgenommen.

Aber nicht nur Geschlecht ist ein Merkmal, das in der Entwicklung von IT-Produkten nicht ausreichend berücksichtig wird. Ebenso sind viele Anwendungen, die auf Künstlicher Intelligenz (KI) basieren, maßgeblich für die Belange weißer Menschen konzipiert. EAF-Expertin Lisa Hanstein erläutert dies folgendermaßen: „Wenn wir Gesichtserkennungsmodule nur mit Bildern von weißen Männern trainieren, sind diese Module nun mal sehr gut im Erkennen von weißen Männern, nicht aber von Schwarzen Frauen beispielsweise“.

Dass KI aber auch dafür genutzt werden kann, bestehende Diskriminierungen zu bekämpfen, zeige das Projekt „Decoding Antisemitism“. Dieses sei dafür entwickelt, antisemitische Kommentare in den sozialen Medien zu identifizieren, damit sie schneller und effektiver gelöscht werden können, so Hanstein.

Das Fazit der KI-Expertin lautet: Langsam und gemächlich kehrt auch in der IT-Branche ein Bewusstsein für gesellschaftliche Diskriminierungsmechanismen ein.

Den ganzen Artikel lesen Sie hier.

 

 

21.09.2021

„Dir werden wir es zeigen!“ Helga Lukoschat über Sexismus im Wahlkampf

Die EAF-Vorstandsvorsitzende spricht im Interview mit der Neuen Osnabrücker Zeitung (NOZ) über selbstbewusste Weiblichkeit, männliche Prototypen in der Politik und stereotype mediale Berichterstattung.

20.09.2021

Jetzt bewerben Verstärke die Femtec!

Im Rahmen des englischsprachigen Career-Building Stipendiums für MINT-Studentinnen von Femtec, wird ein*e Programme-Manager Career-Building (m/w/d) gesucht.

16.09.2021

Diskriminierende Algorithmen EAF-Expert Lisa Hanstein im Interview bei Deutschlandfunk Nova

Vorurteilsbehaftete Algorithmen sind leider nichts Neues: Schwarze Menschen werden nicht richtig erkannt, Frauen nicht berücksichtigt oder runtergerankt.

08.09.2021

20 Jahre weiblicher Führungskräftenachwuchs für die MINT-Berufe Die Femtec hat Geburtstag!

20 Jahre bereits schafft die Tochtergesellschaft der EAF Berlin ein starkes Netzwerk mit Partner*innen für Frauen in den MINT-Bereichen.  

07.09.2021

Netzwerkerinnen unter sich Internationale Bürgermeisterinnenkonferenz Mayoress am 20.9.21

Gerade dort, wo die Demokratie ihre Basis hat, in den Städten und Regionen, fehlen die Frauen in den Führungspositionen. 85 % der Rathäuser in den Ländern der Europäischen Union werden von Männern geführt.

02.09.2021

Gemeinsam gegen Sexismus Die Dialogforen gegen Sexismus gehen in die zweite Runde!

Nach großem Zuspruch der Teilnehmenden zu den Dialogforen gegen Sexismus, findet nun eine zweite Phase des Projektes statt. Diese dient maßgeblich dem Ausbau von Handlungsmöglichkeiten sowie der Schaffung von Synergien und Netzwerkeffekten.