Warum KI sexistisch ist und was wir dagegen tun können 

Wäre es nicht ein Traum, könnte Künstliche Intelligenz (KI) uns Menschen helfen, neutraler zu werden und Vorurteile und Diskriminierung einzudämmen? Leider tun aktuelle Systeme genau das Gegenteil.

 * Veranstaltungshinweis am Schluss!

Zu Beginn muss gleich eine wichtige Klarstellung getroffen werden: Künstliche Intelligenz hinkt in ihrem aktuellen Entwicklungsstand dem Menschen und seinen Fähigkeiten weit hinterher. Fortschritte in der automatisierten Sprach- und Bildverarbeitung führen zwar dazu, dass KI-Systeme Menschen bei Spezialaufgaben übertreffen können. Das gilt beispielsweise beim Übersetzen von einer Sprache in die andere oder Erkennen von Erkrankungen: Durch KI-gestützte Bildanalyse können winzige biologische Veränderungen im Gewebe selbst dann schon entdeckt werden, wenn dem menschlichen Auge nichts auffällt.  

KI-Anwendungen fehlt jedoch eine generelle Intelligenz, wie sie der Mensch hat, der viele Fähigkeiten gleichzeitig hat. Chatbots sind statistische Maschinen. Sie verstehen nicht die Bedeutung hinter den Wörtern und Sätzen, die sie produzieren, sie können nicht nachdenken, reflektieren und Probleme durch Kreativität lösen, wie das das große Vorbild Mensch tut. Das ist klare Limitationen. 

Doch halt. Hat KI nicht den einen großen Vorteil, dass sie mit Daten arbeitet und damit neutralere Urteile fällt als der Mensch, der Berge an Vorurteilen und Stereotypen mit sich herumschleppt und ständig in kulturell geprägte Muster verfällt, die das Ziel der Chancengleichheit für alle torpedieren? Die Vision, dass uns KI-Assistenten helfen könnten, fairer und gerechter zu agieren, ist in der Tat bestechend: Technologie als Beschleunigerin von Gleichstellung.  

Allerdings zeigt das junge Forschungsfeld zu algorithmischem Bias, dass es dazu noch ein weiter Weg ist. Durch KI-Systeme, wie sie aktuell am Markt sind, passiert vielmehr das Gegenteil: Die schlauen Maschinen imitieren nicht nur die Fähigkeiten von Menschen, sondern auch ihre Vorurteile gegenüber Frauen, Angehörigen ethnischer Minderheiten, unter anderem Einwanderer und generell wenig begüterten Menschen, also jenen Gruppen, die ohnehin Nachteile erleben. So ist mittlerweile klar, dass Sexismus und Benachteiligung von Frauen tief in die populären Chatbots wie ChatGPT und Bildgeneratoren wie Midjourney, Stable Diffusion und DALL·E 2 eingebettet ist: Gut bezahlte Jobs sind dort fix die Sache von weißen Männern, Frauen bloß das hübsche Beiwerk. Das belegen mittlerweile zahlreiche Studien. Das Gemeine daran: Durch oberflächliche Korrekturen, beispielsweise Zensur in die gewünschte Richtung, ist das Problem nicht aus der Welt zu schaffen, weil der Bias tief in Daten und Modelle eingebettet ist.   

Es geht jedoch nicht nur um falsche, veraltete Denkmuster, die dadurch genährt werden und somit um indirekte Benachteiligung, sondern auch um handfeste direkte Diskriminierung durch KI-Systeme: Aus der herkömmlichen Medizin ist bekannt, dass Krankheitssymptome von Frauen leichter übersehen werden, weil diese anders sind als der männliche Standardfall in Wissenschaft und Lehre. Weil die Daten zu Frauen häufig fehlen, ist die Fehlerrate von medizinischen KI-Systemen für Frauen daher wesentlich größer als für Männer, beispielsweise bei der Früherkennung von Lebererkrankungen durch Machine Learning, wo Symptome von Frauen doppelt so oft übersehen werden wie von Männern. Sofern KI-Systeme in der Diagnostik nicht weiterentwickelt werden und Gesundheitspersonal diese unbedacht einsetzt, haben Frauen also ein größeres Risiko als Männer, falsche Diagnosen gestellt zu bekommen.  

KI-Werkzeuge am Arbeitsmarkt ist besonders anfällig für geschlechtsspezifische Diskriminierung. Amazon stellte bereits 2018 ein intern entwickeltes Werkzeug zur automatischen Bewertung von Bewerbungen ein, weil dieses nur Männer auswählte und die Eignung von Frauen stets ignorierte. Auch wenn man die Namen weglässt, erkennen Maschinen zuverlässig, ob eine Frau oder ein Mann hinter einem Lebenslauf stehen und benachteiligen erst recht wieder Frauen.  

Ungewollt auftretende Verzerrungen, in der Wissenschaft algorithmischer Bias genannt, haben viele unterschiedliche Ursachen entlang des gesamten Lebenszyklus eines KI-Systems. Eine bekannte Quelle sind Mängel in der Qualität von Trainings-, Test- oder Inputdaten. Nicht selten sind Trainingsdaten unvollständig und haben Lücken hinsichtlich Frauen, Nicht-weißer oder anderer Personengruppen, für die ein KI-System eigentlich dann in der Praxis Aussagen treffen sollte. Auch über das Labeln von Daten durch Menschen kommt unerwünschter Bias in Modelle. Eine weitere Quelle betreffen Fehler im grundlegenden Design des KI-Systems: Staatliche Institutionen, die glauben, Sozialbetrug allein mittels maschineller Mustererkennung erkennen zu können, die mit oberflächlichen Merkmalen wie etwa Namen und Herkunft von Familien arbeitet, sitzen der gefährlichen Illusion auf, dass Maschinen klüger seien als Menschen (in der Wissenschaft nennt man dieses Phänomen Automation Bias). Genau das hat die niederländische Regierung getan. 2021 musste sie wegen des schwer gebiasten, fehlerhaften Sozialbetrugs-Screening  SyRI (system risk indication) zurücktreten, das Tausende von Familien fälschlicherweise des Sozialbetrugs bezichtigt und in Armut und Verzweiflung getrieben hatte, inklusive Kindesabnahme, Selbstmorde und finanzieller Ruin. Man muss wohl nicht extra hinzufügen, dass auch hier vor allem Frauen die Leidtragenden waren.  

Was ist also zu tun, damit KI die Geschlechter-Kluft nicht noch weiter vergrößert, anstatt zu ihrer Verringerung beizutragen? Neben Qualitätsprüfungen und Risikomanagement, wie sie für KI-Systeme nahe am Menschen dringend eingeführt werden müssen (für Hochrisiko-Anwendungen gibt dies der neue EU AI Act vor) braucht es vor allem Aufklärung und eine Erhöhung der KI-Kompetenz in der breiten Bevölkerung. Der Bildungsbereich hat insbesondere vier zentrale Handlungsfelder: 

Erstens muss Mädchen und Frauen Lust auf die vielen spannenden und gut bezahlten Jobs in der Informatik gemacht werden, damit deren Perspektiven in die derzeit männlich dominierte KI-Entwicklung Einzug halten. Aktuell sind je nach Studie nur zwischen 12 und 15 Prozent der KI-Jobs mit Frauen besetzt.  

Zweitens sollten kurzfristig alle Schüler:innen, Studierende und Berufstätige für die Problematik des algorithmischen Bias und anderer Limitationen von KI-Anwendungen im Alltag sensibilisiert werden. Dies kann durch spezielle Kurse und Workshops geschehen, die die ethischen Implikationen von KI thematisieren. 

Drittens müssen wir technische Fächer öffnen und wesentlich interdisziplinärer gestalten als in der Vergangenheit: Informatiker:innen und andere KI-Entwickler:innen brauchen auch sozialwissenschaftliche Kenntnisse, um die gesellschaftlichen Auswirkungen ihrer Arbeit verstehen zu können. Technologiebewertung und Ethik sollten zentraler Bestandteil der unterrichteten technischen Methoden sein. 

Viertens braucht es wesentlich mehr Forschung und Entwicklung, wie die Qualitätssicherung und Prüfung von KI-Systemen hinsichtlich Transparenz, Fairness und Sicherheit künftig gestaltet werden kann.  

Aktuell ist die Idee, dass KI uns Menschen helfen könnte, neutraler zu werden und Vorurteile und Diskriminierung einzudämmen, nicht mehr als ein schöner Traum. Es braucht die Förderung von Diversität, die Sensibilisierung für Vorurteile und die Integration von Ethik in die Ausbildung, damit die nächste Generation von KI-Entwicklern in der Lage ist, diesen Traum in die Realität zu bringen und faire und gerechte Systeme zu schaffen. 

Zu den Autorinnen: 

Gertraud Leimüller und Rania Wazir sind Gründerinnen von leiwand.ai, einem international tätigen Startup aus Wien, das eine Kompetenz- und Technologieplattform für die Identifikation von algorithmischen Bias entwickelt und am Aufbau der KI-Testinfrastruktur in der EU beteiligt ist.  

Veranstaltungstipp! „Künstliche Intelligenz (KI) und ChatGPT in der Jugendarbeit“ am Dienstag, 12.11.2024 um 17:30 Uhr in Feldkirch – bietet einen praxisnahen Einblick in die Anwendung von KI in der Jugendarbeit. Der erfahrene Trainer wird euch zeigen, wie ihr KI-Tools effektiv nutzen könnt, um eure Arbeit zu erleichtern und die Angebote für Jugendliche zu verbessern. Alle Infos und Anmeldung hier entlang …