"Technik ist wie ein Spiegel der Gesellschaft, der schlicht wiedergibt, was wir als Individuen mitbringen"
Von diskriminierenden Algorithmen bis zu rassistischen Seifenspendern: Künstliche Intelligenz (KI) ist nicht so neutral, wie sie auf den ersten Blick erscheinen mag. Worauf das zurückzuführen ist, erklärt unsere KI-Expertin in der taz.
Wenn digitale Anwendungen diskriminieren, kann das auch an den Menschen liegen, die an ihrer Entwicklung beteiligt sind. Eine homogene Gruppe kann unwissentlich Produkte entwerfen, die nicht für alle Menschen gleichermaßen funktionieren, weil ihre eigenen unbewussten Denkmuster und Stereotypisierungen ins Produkt transferiert werden oder sie nicht alle End-User*innen in ihrer Diversität mitdenken. In Deutschland sind an der Entwicklung von IT vor allem Männer beteiligt. Sie machten 2018 einen Anteil von 83 Prozent der in der IT-Branche Angestellten aus. Bestehende Ungleichbehandlungen der analogen Welt werden so quasi in den digitalen Raum übertragen.
Auf diese Weise kann es beispielsweise dazu kommen, dass Frauen durch die Stimmverarbeitung in Onlinegesprächen benachteiligt werden. Anteile ihrer Sprache werden teilweise nicht übertragen, weil höhere Frequenzen von den Programmen ausgedünnt werden. Das Ergebnis: Redebeiträge von Frauen werden häufig als deutlich weniger überzeugend wahrgenommen.
Aber nicht nur Geschlecht ist ein Merkmal, das in der Entwicklung von IT-Produkten nicht ausreichend berücksichtig wird. Ebenso sind viele Anwendungen, die auf Künstlicher Intelligenz (KI) basieren, maßgeblich für die Belange weißer Menschen konzipiert. EAF-Expertin Lisa Hanstein erläutert dies folgendermaßen:
"Wenn wir Gesichtserkennungsmodule nur mit Bildern von weißen Männern trainieren, sind diese Module nun mal sehr gut im Erkennen von weißen Männern, nicht aber von Schwarzen Frauen beispielsweise."
Dass KI aber auch dafür genutzt werden kann, bestehende Diskriminierungen zu bekämpfen, zeige das Projekt „Decoding Antisemitism“. Dieses sei dafür entwickelt, antisemitische Kommentare in den sozialen Medien zu identifizieren, damit sie schneller und effektiver gelöscht werden können, so Hanstein.
Das Fazit der KI-Expertin lautet: Langsam und gemächlich kehrt auch in der IT-Branche ein Bewusstsein für gesellschaftliche Diskriminierungsmechanismen ein.
Den ganzen Artikel lesen Sie hier.