Wenn die Benutzeroberfläche eines IT-Systems zu kompliziert gestaltet ist, wenn die Bedienung technisches Wissen voraussetzt oder das Produkt nicht den persönlichen Bedürfnissen entspricht. Wenn Bilder oder die Sprache einer Anwendung (Geschlechter-)stereotype reproduzieren. Oder wenn das System diskriminierende Entscheidungen trifft. Digitale Entwicklungen sind leider nicht per se gerecht und fair. Es gibt immer wieder Meldungen über Fälle, in denen digitale Produkte Menschen, häufig Frauen, aber auch aufgrund anderer Merkmale wie z.B. Hautfarbe, Alter oder Religion oder Herkunft ausgrenzen.
Die Gründe dafür sind vielfältig. Manchmal führen fehlerhafte Entscheidungen entlang des Entwicklungsprozesses zu ungerechter Software, wenn nicht ausreichend auf die Bedürfnisse und Anforderungen der End-User*innen geachtet wurde. So kann das IT-System an sich unfair werden. Verzerrte Daten können Anwendungen, die auf Künstlicher Intelligenz basieren, unfair machen. Ein neutrales Tool kann sich auch durch den falschen Einsatz zu einer unfairen Technologie entwickeln, z.B. wenn der eigentliche Prozess unfair oder nicht geeignet für eine Automatisierung ist oder wenn die Rahmenbedingungen ausgrenzen. All das kann durch technische Einschränkungen oder handwerkliche Fehler entstehen. Oft können auch unbewusst Stereotypisierungen und Vorurteilen der an der Entwicklung und dem Einsatz von digitalen Technologien beteiligten Menschen in die Produkte einfließen, und das ohne böses Zutun. Eine Erklärung dafür ist die sog. I-Methodology: Wir tendieren nämlich dazu, von uns auf andere Menschen zu schließen. Dadurch entwickeln wir Produkte, die für uns selbst gut funktionieren, für andere End-User*innen womöglich nicht. An der Gestaltung von IT sind nicht alle Menschen gleichermaßen beteiligt: Die IT-Branche ist eine Männerdomäne. Diese fehlende Diversität bei der Entwicklung und dem Einsatz digitaler Technologien erklärt, warum z.B. manche digitale Entwicklungen Frauen ausgrenzen können.
EAF-Expert Lisa Hanstein war am 08.07.2021 bei einer Stadtratsanhörung der Landeshauptstadt München geladen und hat mit weiteren Vertreter*innen aus Stadtverwaltung, Wissenschaft und Praxis über die Umsetzung von Geschlechtergerechtigkeit in der Digitalisierungsstrategie der Landeshauptstadt diskutiert. Neben der Vorstellung einiger sehr konkreter Tipps, Tools und Methoden hat sie in ihrem Impulsvortrag zu „geschlechtergerechten digitalen Angeboten in der Praxis“ darüber gesprochen, worauf Organisationen bei der Entwicklung und dem Einsatz von inklusiverer Technik grundsätzlich achten können.
Nicht erst, wenn ein IT-System in Benutzung ist, sollte (Geschlechter-)Gerechtigkeit eine Rolle spielen. Stattdessen ist es wichtig, dass Vielfalt und Fairness in allen Phasen von der ersten Idee, der Bedarfsanalyse, über die Spezifikation, die Ausschreibung und Beschaffung bzw. Entwicklung, Test, hin zu Einführung und Betrieb aktiv mitgedacht werden.