„Technik ist wie ein Spiegel der Gesellschaft, der schlicht wiedergibt, was wir als Individuen mitbringen“ EAF-Expertin Lisa Hanstein über Chancen und Risiken von künstlicher Intelligenz

Von diskriminierenden Algorithmen bis zu rassistischen Seifenspendern: Künstliche Intelligenz (KI) ist nicht so neutral, wie sie auf den ersten Blick erscheinen mag. Worauf das zurückzuführen ist, erklärt unsere KI-Expertin in der taz.

Wenn digitale Anwendungen diskriminieren, kann das auch an den Menschen liegen, die an ihrer Entwicklung beteiligt sind. Eine homogene Gruppe kann unwissentlich Produkte entwerfen, die nicht für alle Menschen gleichermaßen funktionieren, weil ihre eigenen unbewussten Denkmuster und Stereotypisierungen ins Produkt transferiert werden oder sie nicht alle End-User*innen in ihrer Diversität mitdenken. In Deutschland sind an der Entwicklung von IT vor allem Männer beteiligt. Sie machten 2018 einen Anteil von 83 Prozent der in der IT-Branche Angestellten aus. Bestehende Ungleichbehandlungen der analogen Welt werden so quasi in den digitalen Raum übertragen.

Auf diese Weise kann es beispielsweise dazu kommen, dass Frauen durch die Stimmverarbeitung in Onlinegesprächen benachteiligt werden. Anteile ihrer Sprache werden teilweise nicht übertragen, weil höhere Frequenzen von den Programmen ausgedünnt werden. Das Ergebnis: Redebeiträge von Frauen werden häufig als deutlich weniger überzeugend wahrgenommen.

Aber nicht nur Geschlecht ist ein Merkmal, das in der Entwicklung von IT-Produkten nicht ausreichend berücksichtig wird. Ebenso sind viele Anwendungen, die auf Künstlicher Intelligenz (KI) basieren, maßgeblich für die Belange weißer Menschen konzipiert. EAF-Expertin Lisa Hanstein erläutert dies folgendermaßen: „Wenn wir Gesichtserkennungsmodule nur mit Bildern von weißen Männern trainieren, sind diese Module nun mal sehr gut im Erkennen von weißen Männern, nicht aber von Schwarzen Frauen beispielsweise“.

Dass KI aber auch dafür genutzt werden kann, bestehende Diskriminierungen zu bekämpfen, zeige das Projekt „Decoding Antisemitism“. Dieses sei dafür entwickelt, antisemitische Kommentare in den sozialen Medien zu identifizieren, damit sie schneller und effektiver gelöscht werden können, so Hanstein.

Das Fazit der KI-Expertin lautet: Langsam und gemächlich kehrt auch in der IT-Branche ein Bewusstsein für gesellschaftliche Diskriminierungsmechanismen ein.

Den ganzen Artikel lesen Sie hier.

 

 

26.10.2021

Gemeinsame Erklärung gegen Sexismus Bundesministerin Christine Lambrecht, BDA und Städtetag im Livestream

Am 26. Oktober unterzeichnen Christine Lambrecht, Bundesfrauen- und -justizministerin, Burkhard Jung, Präsident des Deutschen Städtetags, Christina Ramb, Hauptgeschäftsführung der Bundesvereinigung der Deutschen Arbeitgeberverbände (BDA), Claudia...

13.10.2021

Zukunftsforum Neue Wege für Verbraucher*innen

EAF-Senior Expert Hanna Völkle als Expertin für Digitalisierung im Bundesministerium der Justiz und für Verbraucherschutz.

04.10.2021

Aktionsprogramm Kommune - Frauen in die Politik Partner-Regionen gesucht

Die Kommunalpolitik ist die Basis der Demokratie; doch immer noch entscheiden viel zu wenige Frauen über die Geschicke ihrer Gemeinde, ihrer Stadt oder ihres Landkreises. Das "Aktionsprogramm Kommune - Frauen in die Politik" soll das in den nächsten...

30.09.2021

(GESCHLECHTER-)GERECHTE IT?! Lisa Hanstein über eine inklusivere Entwicklung von IT-Produkten

Die Expertin für IT und Diskriminierung hat im Rahmen eines Hearings der Landeshauptstadt München Anknüpfungspunkte für die geschlechtergerechte Entwicklung und den Einsatz von digitalen Angeboten vorgestellt.

30.09.2021

Monitoring der Frauenanteile im Bundestag Langsame Fortschritte

Der Frauenanteil im Bundestag erreicht nach der Wahl vom 26. September 2021 34,7 Prozent und ist damit weit von einer paritätischen Verteilung der Geschlechter entfernt.

21.09.2021

„Dir werden wir es zeigen!“ Helga Lukoschat über Sexismus im Wahlkampf

Die EAF-Vorstandsvorsitzende spricht im Interview mit der Neuen Osnabrücker Zeitung (NOZ) über selbstbewusste Weiblichkeit, männliche Prototypen in der Politik und stereotype mediale Berichterstattung.