Vielfalt ist in der Digitalisierung entscheidend

Die digitale Transformation beeinflusst unser tägliches Leben und durchdringt alle Bereiche unserer Gesellschaft. Apps auf dem Smartphone, das Tool am PC oder KI-Anwendungen wie Chat GPT – wir leben und arbeiten immer digitaler.

 

Aber: Studien zeigen, dass diese Technologien nicht immer vielfaltssensibel gestaltet sind. Das heißt, dass sie sich negativ auf Frauen, Schwarze Menschen und andere marginalisierte Gruppen, wie z.B. Menschen mit Migrationsbiografie auswirken und diese diskriminieren können. Ein Grund dafür ist, dass im MINT-Bereich eine männliche, weiße Perspektive an der Entwicklung der digitalen Anwendungen oft überrepräsentiert ist (siehe Vielfaltssensible Softwareentwicklung). Deshalb ist es wichtig, einen gemeinsamen Diskurs anzustoßen, Menschen zu befähigen, Technologien diskriminierungssensibel einzusetzen und gleichzeitig die Chancen von IT für mehr Vielfalt aktiv zu nutzen. Wir können alle dazu beitragen, die digitale Transformation geschlechtergerecht und inklusiv zu gestalten.

Künstliche Intelligenz und Digitalisierung in der Arbeitswelt

Digitale Transformation der Arbeitswelt …

Im Büro hilft uns Chat GPT, schneller zu schreiben oder Präsentationen vorzubereiten. Software übernimmt und reduziert administrative Aufgaben, beispielsweise durch automatisierte Gehaltsabrechnungssysteme, Apps zur Einsatzplanung oder Software für Bewerbungsverfahren. In der öffentlichen Verwaltung können Bürger*innen beispielsweise einen Personalausweis online und so einfacher beantragen.  All das erleichtert Zugänge und soll Arbeitsprozesse vereinfachen.

… ein Risiko für Vielfalt & Chancengerechtigkeit?

Aber: Nicht alle Menschen haben den gleichen Zugang zu digitalen Anwendungen und Tools. Wer sich aufgrund des Alters oder mangelnder Kenntnisse nicht sicher am Computer fühlt, ist schneller ausgeschlossen. Doch das ist nicht die einzige Herausforderung. Hass und Hetze im Netz vor allem gegenüber Frauen oder demokratischen Stimmen – sind eine Gefahr für Vielfalt und Chancengerechtigkeit.

Algorithmic Bias: Wenn die Software unfair wird

Und: Software, Apps und Algorithmen sind nicht zwangsläufig neutral. Gesellschaftliche Stereotype und bestehende Ungerechtigkeiten können durch Technik reproduziert werden: Menschen werden aufgrund des Geschlechts, der Hautfarbe, des Alters, der Religion oder Herkunft ausgegrenzt. Der sogenannte Algorithmic Bias zeigt sich etwa, wenn Programme beispielsweise Frauen als weniger vermittelbar auf dem Arbeitsmarkt prognostizieren.

Oder wenn automatische Gesichtserkennung Persons of Color deutlich schlechter erkennen. Oder auch, wenn die KI stereotype Bilder generiert und männlich gelesene Personen eher in Führungspositionen darstellt oder Medizinpersonal eher als „Arzt und Krankenschwester“ zeigt anstatt „Ärztin und Krankenpfleger“. Es gibt Online-Formulare, die kurze Nachnamen – wie im asiatischen Raum gängig – nicht akzeptieren oder nur Felder für Vater und Mutter vorsehen und damit gleichgeschlechtige Elternteile ausschließen.

Software wird von Menschen programmiert

Aber wie entsteht überhaupt so ein Algorithmic Bias? Sie entstehen vor allem deshalb, weil das Digitale menschengemacht ist: Verzerrte Daten aus unserer realen Welt können automatisierte Entscheidungssysteme oder Anwendungen, die auf Künstlicher Intelligenz basieren, unfair machen. Nämlich, wenn diese Daten, aus denen Programme ihre Informationen speisen, nur einen Teil der Wahrheit abbilden oder bestehende Ungerechtigkeiten widerspiegeln. 

Und wenn Software programmiert und getestet wird, gehen wir häufig von uns selbst als zukünftige Nutzende aus – das ist menschlich, kann aber dazu führen, dass das Produkt für uns selbst gut funktioniert, für andere Gruppen von Menschen weniger – etwa wenn ein männlicher Körperbau oder weiße Hautfarbe als Standard unhinterfragt bleibt.

Die IT-Branche ist eine Männerdomäne: Wenig Frauen, wenig Diversität

 

Nur 18 Prozent aller Angestellten im IT-Sektor in Deutschland sind weiblich (Siehe folgende Studie). In der Tech-Branche arbeiten immer noch mehr Männer als Frauen, die IT-Teams sind meist nicht sehr vielfältig aufgestellt, sei es in Bezug auf Geschlecht, aber auch auf Herkunft, Hautfarbe, Religion.  Wir erinnern uns: Wir gehen in der Nutzung ganz automatisch von uns und unserer Erfahrungswelt aus. Dadurch werden Bedarfe von marginalisierten Gruppen schnell übersehen. Unbewusste Denkmuster, Vorurteile und Stereotype werden in den Produkten reproduziert.

Gründe für geringen Frauenanteil in der IT

Die Gründe dafür, dass so wenige Frauen in der IT arbeiten, sind vielschichtig und haben eben auch mit Stereotypen, Erwartungen und Kompetenzzuschreibungen in unserer Gesellschaft zu tun. „Mädchen können kein Mathe“:  Es beginnt bereits in Erziehung und Schule. Mädchen lernen, dass Technik, Mathe und Naturwissenschaften nichts für sie sind und werden dementsprechend auch weniger darin gefördert, das auszuprobieren. Das wiederum führt dazu, dass sie sich seltener für ein Informatikstudium oder einen technischen Ausbildungsberuf interessieren. Die CEOs der größten Tech-Konzerne weltweit sind besonders häufig männlich und weiß. Junge Persons of Color haben kaum Vorbilder oder Role Models.

Negative Berufserfahrung von Frauen in der IT

Für viele Frauen und marginalisierte Gruppen in der IT ist die Berufserfahrung oft negativ. Der geringere Frauenanteil im IT-Sektor sowie bestehende Geschlechterstereotype und unbewusste Vorurteile können auch die Arbeit in Teams und Organisationen negativ beeinflussen und führen dazu, dass Frauen Sexismus am Arbeitsplatz erleben. Etwa, wenn Männer in ihren Redebeiträgen in der Teamsitzung ernster genommen werden als Frauen oder sie herabwürdigende Kommentare über ihr Äußeres ertragen müssen. Ergebnis: Fluktuationsraten von weiblichen Angestellten in Tech-Teams sind meist höher als die ihrer männlichen Arbeitskollegen.

KI und digitale Innovation für mehr Gerechtigkeit

Das Digitale ist aber nicht per se schlecht. Mit digitalen Anwendungen können wir schneller und strukturierter arbeiten - Und: Ein digitales Tool wird nicht müde, hat keinen Hunger, weder gute noch schlechte Laune und kann im besten Fall rationalere Entscheidungen als wir Menschen treffen. Deshalb können Software und Künstliche Intelligenz (KI), die „bias-sensibel“ entwickelt und eingesetzt werden, auch gezielt für mehr Vielfalt genutzt werden und Diskriminierung abbauen. KI kann beispielsweise unbewusste Denkmuster - sogenannte Unconscious Biases (siehe Unconcious Bias), die im Recruiting zu diskriminierenden Entscheidungen führen können – in der Personalarbeit reduzieren. Augmented Writing Tools können beispielsweise geschlechtergerechte und inklusive Sprache in Stellenanzeigen unterstützen und so eine diversere Bewerber*innenschaft ansprechen. Andere KI-gestützte Anwendungen decken Muster von Ungleichbehandlung auf und helfen, Vorurteile in Daten und Algorithmen zu minimieren. So kann KI und IT nicht nur Chancengleichheit fördern, sondern auch dazu beitragen, dass digitale Lösungen gerechter und zugänglicher für alle werden.

Für eine faire digitale Zukunft … Vielfalt & IT zusammendenken

Die Digitalisierung hat das Potenzial, ein Motor für Chancengleichheit und Teilhabe zu sein – wenn sie gezielt auf Vielfalt und Gerechtigkeit ausgerichtet wird. Damit das gelingen kann, müssen Organisationen Digitalisierung und Diversity zusammendenken. Entscheider*innen, die über den Einsatz von digitalen Tools im Unternehmen bestimmen, müssen Technik besser verstehen, über Chancen & Risiken in Bezug auf Vielfalt sensibilisiert werden und Kompetenzen und konkrete Handlungsoptionen im Umgang mit einer vielfaltssensiblen Digitalisierung an die Hand bekommen.

Kontaktieren Sie uns!

Möchten Sie mehr über vielfaltssensible Softwareentwicklung erfahren oder konkrete Maßnahmen umsetzen? Kontaktieren Sie uns und lassen Sie uns gemeinsam an einer inklusiven IT-Zukunft arbeiten!

Weitere Informationen

Kontakt

Portrait von Lisa Hanstein

Wenden Sie sich gerne an die zuständige Ansprechperson:

Lisa Hanstein

Senior Expert

+49 (30) 3087760-46

hansteineaf-berlinde

Bleiben Sie auf dem Laufenden

Abonnieren Sie
den Newsletter der EAF Berlin

 

Mit Absenden der Registrierung erklären Sie sich damit einverstanden, dass die von Ihnen angegebenen Daten elektronisch erfasst und gespeichert werden. Weitere Informationen entnehmen Sie bitte unserer Datenschutzerklärung.