Vielfalt ist in der Digitalisierung entscheidend
Die digitale Transformation beeinflusst unser tägliches Leben und durchdringt alle Bereiche unserer Gesellschaft. Apps auf dem Smartphone, das Tool am PC oder KI-Anwendungen wie Chat GPT – wir leben und arbeiten immer digitaler.

Aber: Studien zeigen, dass diese Technologien nicht immer vielfaltssensibel gestaltet sind. Das heißt, dass sie sich negativ auf Frauen, Schwarze Menschen und andere marginalisierte Gruppen, wie z.B. Menschen mit Migrationsbiografie auswirken und diese diskriminieren können. Ein Grund dafür ist, dass im MINT-Bereich eine männliche, weiße Perspektive an der Entwicklung der digitalen Anwendungen oft überrepräsentiert ist (siehe Vielfaltssensible Softwareentwicklung). Deshalb ist es wichtig, einen gemeinsamen Diskurs anzustoßen, Menschen zu befähigen, Technologien diskriminierungssensibel einzusetzen und gleichzeitig die Chancen von IT für mehr Vielfalt aktiv zu nutzen. Wir können alle dazu beitragen, die digitale Transformation geschlechtergerecht und inklusiv zu gestalten.
Künstliche Intelligenz und Digitalisierung in der Arbeitswelt
Digitale Transformation der Arbeitswelt …
Im Büro hilft uns Chat GPT, schneller zu schreiben oder Präsentationen vorzubereiten. Software übernimmt und reduziert administrative Aufgaben, beispielsweise durch automatisierte Gehaltsabrechnungssysteme, Apps zur Einsatzplanung oder Software für Bewerbungsverfahren. In der öffentlichen Verwaltung können Bürger*innen beispielsweise einen Personalausweis online und so einfacher beantragen. All das erleichtert Zugänge und soll Arbeitsprozesse vereinfachen.
… ein Risiko für Vielfalt & Chancengerechtigkeit?
Aber: Nicht alle Menschen haben den gleichen Zugang zu digitalen Anwendungen und Tools. Wer sich aufgrund des Alters oder mangelnder Kenntnisse nicht sicher am Computer fühlt, ist schneller ausgeschlossen. Doch das ist nicht die einzige Herausforderung. Hass und Hetze im Netz vor allem gegenüber Frauen oder demokratischen Stimmen – sind eine Gefahr für Vielfalt und Chancengerechtigkeit.
Algorithmic Bias: Wenn die Software unfair wird
Und: Software, Apps und Algorithmen sind nicht zwangsläufig neutral. Gesellschaftliche Stereotype und bestehende Ungerechtigkeiten können durch Technik reproduziert werden: Menschen werden aufgrund des Geschlechts, der Hautfarbe, des Alters, der Religion oder Herkunft ausgegrenzt. Der sogenannte Algorithmic Bias zeigt sich etwa, wenn Programme beispielsweise Frauen als weniger vermittelbar auf dem Arbeitsmarkt prognostizieren.
Oder wenn automatische Gesichtserkennung Persons of Color deutlich schlechter erkennen. Oder auch, wenn die KI stereotype Bilder generiert und männlich gelesene Personen eher in Führungspositionen darstellt oder Medizinpersonal eher als „Arzt und Krankenschwester“ zeigt anstatt „Ärztin und Krankenpfleger“. Es gibt Online-Formulare, die kurze Nachnamen – wie im asiatischen Raum gängig – nicht akzeptieren oder nur Felder für Vater und Mutter vorsehen und damit gleichgeschlechtige Elternteile ausschließen.

Software wird von Menschen programmiert
Aber wie entsteht überhaupt so ein Algorithmic Bias? Sie entstehen vor allem deshalb, weil das Digitale menschengemacht ist: Verzerrte Daten aus unserer realen Welt können automatisierte Entscheidungssysteme oder Anwendungen, die auf Künstlicher Intelligenz basieren, unfair machen. Nämlich, wenn diese Daten, aus denen Programme ihre Informationen speisen, nur einen Teil der Wahrheit abbilden oder bestehende Ungerechtigkeiten widerspiegeln.
Und wenn Software programmiert und getestet wird, gehen wir häufig von uns selbst als zukünftige Nutzende aus – das ist menschlich, kann aber dazu führen, dass das Produkt für uns selbst gut funktioniert, für andere Gruppen von Menschen weniger – etwa wenn ein männlicher Körperbau oder weiße Hautfarbe als Standard unhinterfragt bleibt.
Die IT-Branche ist eine Männerdomäne: Wenig Frauen, wenig Diversität

Nur 18 Prozent aller Angestellten im IT-Sektor in Deutschland sind weiblich (Siehe folgende Studie). In der Tech-Branche arbeiten immer noch mehr Männer als Frauen, die IT-Teams sind meist nicht sehr vielfältig aufgestellt, sei es in Bezug auf Geschlecht, aber auch auf Herkunft, Hautfarbe, Religion. Wir erinnern uns: Wir gehen in der Nutzung ganz automatisch von uns und unserer Erfahrungswelt aus. Dadurch werden Bedarfe von marginalisierten Gruppen schnell übersehen. Unbewusste Denkmuster, Vorurteile und Stereotype werden in den Produkten reproduziert.
Gründe für geringen Frauenanteil in der IT
Die Gründe dafür, dass so wenige Frauen in der IT arbeiten, sind vielschichtig und haben eben auch mit Stereotypen, Erwartungen und Kompetenzzuschreibungen in unserer Gesellschaft zu tun. „Mädchen können kein Mathe“: Es beginnt bereits in Erziehung und Schule. Mädchen lernen, dass Technik, Mathe und Naturwissenschaften nichts für sie sind und werden dementsprechend auch weniger darin gefördert, das auszuprobieren. Das wiederum führt dazu, dass sie sich seltener für ein Informatikstudium oder einen technischen Ausbildungsberuf interessieren. Die CEOs der größten Tech-Konzerne weltweit sind besonders häufig männlich und weiß. Junge Persons of Color haben kaum Vorbilder oder Role Models.
Negative Berufserfahrung von Frauen in der IT
Für viele Frauen und marginalisierte Gruppen in der IT ist die Berufserfahrung oft negativ. Der geringere Frauenanteil im IT-Sektor sowie bestehende Geschlechterstereotype und unbewusste Vorurteile können auch die Arbeit in Teams und Organisationen negativ beeinflussen und führen dazu, dass Frauen Sexismus am Arbeitsplatz erleben. Etwa, wenn Männer in ihren Redebeiträgen in der Teamsitzung ernster genommen werden als Frauen oder sie herabwürdigende Kommentare über ihr Äußeres ertragen müssen. Ergebnis: Fluktuationsraten von weiblichen Angestellten in Tech-Teams sind meist höher als die ihrer männlichen Arbeitskollegen.
KI und digitale Innovation für mehr Gerechtigkeit
Das Digitale ist aber nicht per se schlecht. Mit digitalen Anwendungen können wir schneller und strukturierter arbeiten - Und: Ein digitales Tool wird nicht müde, hat keinen Hunger, weder gute noch schlechte Laune und kann im besten Fall rationalere Entscheidungen als wir Menschen treffen. Deshalb können Software und Künstliche Intelligenz (KI), die „bias-sensibel“ entwickelt und eingesetzt werden, auch gezielt für mehr Vielfalt genutzt werden und Diskriminierung abbauen. KI kann beispielsweise unbewusste Denkmuster - sogenannte Unconscious Biases (siehe Unconcious Bias), die im Recruiting zu diskriminierenden Entscheidungen führen können – in der Personalarbeit reduzieren. Augmented Writing Tools können beispielsweise geschlechtergerechte und inklusive Sprache in Stellenanzeigen unterstützen und so eine diversere Bewerber*innenschaft ansprechen. Andere KI-gestützte Anwendungen decken Muster von Ungleichbehandlung auf und helfen, Vorurteile in Daten und Algorithmen zu minimieren. So kann KI und IT nicht nur Chancengleichheit fördern, sondern auch dazu beitragen, dass digitale Lösungen gerechter und zugänglicher für alle werden.
Für eine faire digitale Zukunft … Vielfalt & IT zusammendenken
Die Digitalisierung hat das Potenzial, ein Motor für Chancengleichheit und Teilhabe zu sein – wenn sie gezielt auf Vielfalt und Gerechtigkeit ausgerichtet wird. Damit das gelingen kann, müssen Organisationen Digitalisierung und Diversity zusammendenken. Entscheider*innen, die über den Einsatz von digitalen Tools im Unternehmen bestimmen, müssen Technik besser verstehen, über Chancen & Risiken in Bezug auf Vielfalt sensibilisiert werden und Kompetenzen und konkrete Handlungsoptionen im Umgang mit einer vielfaltssensiblen Digitalisierung an die Hand bekommen.
Kontaktieren Sie uns!
Weitere Informationen
Kontakt
