Zum Hauptinhalt springen

Warum der Chatbot wie ein Mann „denkt“

6 Min
Künstliche Intelligenz spiegelt die Weltanschauung ihrer - oftmals jungen, männlichen - Entwickler. Transparenz und Quellenangaben sollen Abhilfe schaffen.
© Illustration: WZ, Bildquelle: Getty Images

Künstliche Intelligenz hat ein klischeehaftes Frauenbild. Was sich dagegen unternehmen lässt.


Viele Frauen aus verschiedenen Ländern, manche älter, manche jünger, manche in Jeans und andere im Business-Look. Wieder andere am Bau, auf dem Feld, in der Autowerkstatt oder hinter der Kassa, im Büro, in der Ordination, im Geschäft, im Atelier oder zu Hause, laufend, essend, sprechend, mit und ohne Kinder und Partner:in, oder einfach auf Reisen, im Kaffeehaus oder beim Sport. Diese Sammlung an Fotos wirft der KI-Bildgenerator aus, wenn der Prompt „generiere ein Bild einer Frau“ lautet.

Das wäre der Wunsch.

In Wirklichkeit aber hat Künstliche Intelligenz (KI) ein anderes Frauenbild. Für die Maschine sind alle Frauen jung, schick, gepflegt, schlank und gutaussehend, haben dunkle, lange Haare, tragen gerne auch schulterfreie Tops - und existieren vor allem als Porträt.

Ein Typ Frau, viele Typen Mann

„In einer Serie von 40 KI-generierten Bilder zählten alle Frauen zu diesem optischen Typus“, sagt Julia Neidhardt vom Institut für Information Systems Engineering der Technischen Universität (TU) Wien zur WZ. Als Testperson im Rahmen eines Forschungsprojekts ihrer Universität hat die Informatikerin diese Bilder begutachtet und dabei Diskrepanzen entdeckt. Lautete das Kommando nämlich „generiere ein Bild eines Mannes“, warf die Software sehr wohl die gewünschte Sammlung aus. „Es gibt Fotos von schlanken wie dickeren Männern, von solchen mit Haaren und solchen ohne, von älteren wie jüngeren, außerdem nicht bloß als Porträts dargestellt, sondern aus unterschiedlichen Perspektiven betrachtet“, berichtet Neidhardt.

Im Rahmen dieser laufenden Studie am TU-Institut für Visual Computing wird der Bias in KI-generierten Bildern erforscht. Bias ist das englische Wort für Voreingenommenheit oder Ausrichtung. Gemeint ist in diesem Zusammenhang die Verzerrung, die bei der Entwicklung von KI-Sprachmodellen oder auch -Bildgeneratoren entstehen kann, etwa durch bestimmte Annahmen oder Entscheidungen bei der Auswahl der zugrunde liegenden Daten. Diese Annahmen können durch Merkmale wie Herkunft, Alter, Bildungsgrad, Geschlecht oder Interessen beeinflusst sein.

Liefert KI ein realistisches Bild der Welt? Selbst neuere Versionen des maschinellen „Denkens“ tun es nicht. So haben etwa Assistenzprogramme meist eine weibliche, Finanzberatungsprogramme hingegen häufiger eine männliche Stimme, berichtet die Unesco in einer Studie, wonach KI-Chatbots Ungleichheiten zwischen den Geschlechtern sowie rassistische oder homophobe Klischees sogar befördern können. „Bestehende Diskriminierungen werden im digitalen Raum nicht nur gespiegelt, sondern verstärkt", sagte Tawfik Jelassi von der UN-Organisation für Bildung, Wissenschaft und Kultur anlässlich der Präsentation der Studie im März dieses Jahres.

Es fehlen andere Blickwinkel

Zur Probe fragt die WZ die Gratis-Version von Chat GPT nach „typisch weiblichen Berufen“. Und tatsächlich: Die KI ,,denkt" wie ein Mann. Ihre Liste der „Frauenberufe“ enthält bekannte Klischees: An erster Stelle steht ,,Erzieherin / Kindergärtnerin", „da die Arbeit mit Kindern oft als fürsorglich und empathisch angesehen wird“, gefolgt von Pflegeberufen und Tätigkeiten in der Schönheitspflege wie ,,Kosmetikerin / Friseurin".

Frauen stellen in Mitteleuropa nur zwischen elf (Tschechien) und 19 Prozent (Österreich) aller Mitarbeiter:innen in der IT-Branche dar. Das berichtet das Institut für den Donauraum und Mitteleuropa in Wien, das auch ins Treffen führt, dass Künstliche Intelligenz die Vorurteile und die Weltanschauung ihrer - oftmals jungen, männlichen - Entwickler spiegle.

Doch Gender-Bias ist nicht das einzige Problem in einer KI, die mit historischen Daten über Menschen, Tiere, Pflanzen, Städte oder Landschaften, gesellschaftlich-kulturellen Fragen, Geschlechterverhältnissen, Geschichtsverständnis, Ökonomie, Klima oder Politik gefüttert wird. Künstliche Intelligenz ist ein Abbild der Gesellschaft. Genau hier liegt aber der Hund begraben, denn „historische Daten sind, wie sie sind. Sie sind nicht neutral. Und Gender-Bias ist nur ein Problem von mehreren, denn auch Kulturen des globalen Südens oder Menschen mit Behinderungen kommen eher weniger zu Wort“, erklärt Neidhardt: „Es fehlen Blickwinkel.“

Leseanweisung hilft nicht

Jüngere weiße Männer interessieren andere Dinge als ältere schwarze Frauen. Menschen aus westlich-reichen Ländern haben andere Fragen an das Leben als solche aus Entwicklungsländern, Menschen mit Behinderungen anders gelagerte Bedürfnisse als solche ohne, Naturwissenschaftler:innen andere Weltsichten als Geistes- und Sozialwissenschaftler:innen. Obwohl durchaus Schnittmengen existieren, blickt wohl niemand komplett über den Tellerrand des eigenen Erfahrungsschatzes. Würden alle diese unterschiedlichen Menschen KI programmieren, könnte das Maschinendenken vielleicht auf einem einigermaßen kompletten Bild aufbauen.

Künstliche Intelligenz ist nicht neutral. Chatbots werden allerdings laufend nachjustiert, etwa um ethische Komponenten zu ermöglichen oder verschiedene Standpunkte zu einem Thema sichtbar zu machen. „Diese Liste ist nicht abschließend, da es viele weitere gesundheitliche Probleme gibt, die Männer betreffen können“, lautet dann die relativierende Leseanweisung, etwa wenn Chat GPT nach typisch männlichen Erkrankungen befragt wird. Das ist immerhin ein Anfang. Wirklich hilfreich ist es jedoch nicht. „Nachjustieren ist nicht leicht, weil die Systeme komplex sind. Wenn man an einer Schraube dreht, verändern sich möglicherweise andere Parameter automatisch mit, und es ist sehr schwer, den Systemen für alle Situationen den richtigen Kontext mitzuliefern“, erklärt Stefan Woltran, Leiter des Forschungsbereichs „Databases and Artificial Intelligence“ der TU Wien: „Das kann seltsame und auch historisch falsche Blüten treiben, etwa, wenn plötzlich ein Schwarzer eine Nazi-Uniform anhat.“

Transparenz und Quellenangaben als Lösung

Julia Neidhardt will Abhilfe schaffen. Sie leitet ein Labor der Christian Doppler Forschungsgesellschaft, das sich der Weiterentwicklung von Recommender-Systemen widmet, die personalisierte Warenvorschläge und Werbungen auf die Bildschirme bringen. Mit ihrem Team will sie Warenvorschläge weg vom Schubladendenken hin zu transparenter Produktinformation entwickeln. Im Zuge dessen arbeitet sie an einem Bot, der Informationsquellen offenlegen soll. „KI liefert verschiedene Annahmen, die wir nicht im Handumdrehen wegbekommen werden. Wichtig ist aber, dass das transparent gemacht wird. Wir sind dabei, ein System zu bauen, das sichtbar machen soll, was im Hintergrund passiert und worauf sich die Informationen, die ein Chatbot liefert, beziehen“, stellt sie in Aussicht.

Es soll eine Art Fußnoten-System mit Angabe von Links entstehen, ein bisschen wie in den Quellenverzeichnissen in akademischen Arbeiten, oder – auf Journalismus umgelegt - so ähnlich wie auf der Transparenzseite der WZ. Und das klingt doch schon vielversprechend, oder? Wir bleiben gespannt.


Dir hat dieser Beitrag besonders gut gefallen oder du hast Hinweise für uns - sag uns deine Meinung unter feedback@wienerzeitung.at. Willst du uns helfen, unser gesamtes Produkt besser zu machen? Dann melde dich hier an.


Infos und Quellen

Genese

WZ-Redakteurin Eva Stanzl wollte wissen, warum sich alte Vorurteile in der hochmodernen KI weiter festschreiben. Als sie bei der Technischen Universität Wien nachfragte, lernte sie, wie komplex das System der KI-Programmierung überhaupt ist - und wie man nachbessern könnte.

Gesprächspartner:innen

  • Julia Neidhardt ist Forscherin im Bereich Data Science an der Fakultät für Informatik der Technischen Universität Wien. Sie ist Leiterin des Christian Doppler-Labors für Recommender-Systeme und Co-Inhaberin des Unesco-Chairs für Digitalen Humanismus an der TU Wien.

  • Stefan Woltran ist Leiter des Forschungsbereichs „Databases and Artificial Intelligence“ am Institut für Logic and Computation der TU Wien.

Daten und Fakten

  • Frauen stellen in Mitteleuropa nur zwischen 11 Prozent (Tschechien) und 19 Prozent (Österreich) aller Mitarbeiter:innen in der IT-Branche dar. Das zeigt die Studie ,,Women in the Digital Space (and AI)“ des Instituts für den Donauraum und Mitteleuropa.

  • Eine Ausbildung im Bereich Mathematik, Informatik, Naturwissenschaften und Technik kann sich gerade einmal ein Viertel der 14- und 15-jährigen, beziehungsweise ein Drittel der 16- und 17-jährigen Mädchen gut vorstellen, wie die Fachhochschule Oberösterreich in einer Studie, bei der 1.500 Schülerinnen zwischen 14 und 18 Jahren befragt wurden, berichtet. Als Gründe werden fehlendes Interesse und zu wenig Mut, sich diese Fächer zuzutrauen, ins Treffen geführt.

  • Nach wie vor belegt nicht einmal ein Drittel der Studentinnen an den Universitäten in Österreich eines dieser MINT-Fächer. „Der Fakultät ist es ein Anliegen, den Frauenanteil zu erhören. Es gibt unzählige Initiativen, aber es ändert sich bedauerlicherweise wenig“, sagt Stefan Woltran, Leiter des Forschungsbereichs Databases and Artificial Itelligence der TU Wien.

  • Außerdem nutzen Frauen Künstliche Intelligenz wie ChatGPT weniger häufig als ihre männlichen Kollegen. Etwa belegt eine Studie der Universitäten Chicago und Kopenhagen, dass nur ein Drittel der Lehrerinnen die KI für ihre Arbeit nutzt, während es bei den Lehrern die Hälfte sei. Selbst unter Softwareentwickler:innen nutzten fast zwei Drittel der Männer die KI-Software, während es weniger als die Hälfte der Frauen tat. Die Autor:innen orten einen Mangel an weiblichem Selbstvertrauen: Frauen, die keine Künstliche Intelligenz nutzen, gaben häufiger als Männer an, dass sie eine Schulung benötigen, um die Technologie zu nutzen. Und die Folge ist, dass die KI ihr Wissen eher anhand der Nutzer als der Nutzerinnen weiterentwickelt.

Quellen

Das Thema in der WZ

Das Thema in anderen Medien

  • Die Zeit: KI-Anwendungen bedienen laut Unesco Geschlechterstereotype

  • Der Standard: Warum so wenige Frauen in MINT-Berufe wollen

  • Economist: Why don’t women use artificial intelligence?