Wenn Frauen keinen Einfluss auf die Gestaltung von KI nehmen, wird auch dieses System nur Stereotype abbilden. Die Sozialforscherin Julia Eisner im WZ-Interview.
„The doctor yelled at the nurse“ bringt Julia Eisner als ein Beispiel dafür, dass Künstliche Intelligenz Vorurteile hat. Denn die KI beschreibt einen Arzt, einen Mann im weißen Kittel, der eine verängstigte Krankenschwester anschreit. Und keine Ärztin, die einen Krankenpfleger zurechtweist. „Wir müssen jetzt etwas tun, um KI gerecht zu gestalten“, sagt sie.
- Für dich interessant: Warum der Chatbot wie ein Mann „denkt“
Wo stehen wir gerade bei der Entwicklung Künstlicher Intelligenz?
Künstliche Intelligenz ist im Prinzip nichts Neues. Es gibt viele KI-Systeme, etwa in der Medizin, um bessere Diagnosen erzielen zu können, oder Digital Farming, um die Landwirtschaft effizienter zu gestalten. KI-Systeme wurden bereits 1945 definiert. Die Fortschritte heutzutage sind jedoch so enorm, die Rechenleistung so unfassbar groß, und die Geräte so gut entwickelt, dass wir eine neue Dimension erreicht haben. Bei ChatGPT handelt es sich − anders als die anderen genannten Beispiele − um generative KI-Tools. Dabei gibt es fast keinen Unterschied mehr zwischen vom Menschen und von der Maschine generierten Inhalten. Diese Dialogfähigkeit der KI zeichnet sich als Meilenstein in der Entwicklung aus, nicht nur Text-basiert, sondern auch bereits in Videos und Audios. KI ist zweifelsohne als Akteurin in unserer Gesellschaft angekommen.
Sie sind Vertreterin der Non-Profit-Initiative Women in AI. Welche Rolle spielen Frauen dabei?
Wir Frauen müssen jetzt etwas tun, damit KIs frauengerecht gestaltet werden. Die Daten, auf die die KIs wie ChatGPT zugreifen, sind völlig unstrukturiert und nicht sehr vielfältig. Und hier liegt auch das große Problem: Es kommt zu Verzerrungen. Wir sprechen dabei vom Weird Sample, sprich westliche, gebildete, industrialisierte, reiche und demokratische Gesellschaften werden abgebildet. Der Bias zeigt sich in einem Gender-Bias. Wenn man ChatGPT etwa bittet, ein Bild von einem CEO zu generieren, ist die Wahrscheinlichkeit hoch, dass ein westlicher Mann im Anzug gezeigt wird und nicht eine Frau. Dass KI auch nicht repräsentativ ist, zeigt sich im Racial Bias. Da die KI aus historischen, also vergangenen Daten lernt, ist sie kein Abbild unserer gesamten Gesellschaft und verstärkt sehr stark Stereotype. KI-Tools wie ChatGPT werden mit unstrukturierten Daten gefüttert und trainiert, was im Output zu Bias und Verzerrungen führt.
KI ist kein Abbild unserer gesamten Gesellschaft.Sozialfoscherin Julia Eisner
Sie haben in einer Vorlesungsrunde das Beispiel „the doctor yells at the nurse“ gebracht. Wenn man das eingibt, werden ein Mann und eine Krankenschwester gezeigt, nicht aber eine Ärztin und ein Krankenpfleger. Wie kommt das zustande?
Wenn der Datensatz, der zum Trainieren der KI verwendet wird, mehr Beispiele von Ärzten, die häufig als männlich dargestellt werden, enthält, die Krankenschwestern, die häufig als weiblich dargestellt werden, anschreien, könnte das Modell lernen, dass solche Interaktionen häufig oder akzeptabel sind. KI-Systeme, die auf solchen Daten trainiert werden, können unbewusst geschlechtsbezogene oder berufliche Stereotypen verstärken.
Was müsste denn passieren, damit KI Frauen berücksichtigt bzw. diverser wird?
Die Datensätze müssten vielfältiger aufbereitet werden. Wir müssen in Europa Werte für die KI definieren, wie etwa Gerechtigkeit und Gleichberechtigung. Das betrifft im Grund nicht nur Frauen, sondern die Diversität der Gesellschaft allgemein. Es gab etwa das Problem, dass Desinfektionsgeräte nur weiße Hände erkannt haben, keine schwarzen. Wir müssen eine KI erstellen, die besser ist und die die Diversität fördert.
Wir würde das in der Praxis aussehen?
Das beginnt in den Entwicklungsteams, die müssen diverser sein und bestimmte Werte in der KI verankern. Zudem sollte überlegt werden, wie Trainingsdaten überprüft und verbessert werden können, um Verzerrungen zu minimieren. Es ist wichtig, Mechanismen einzuführen und KI-Modelle regelmäßig auf Fairness und Verzerrung zu testen.
Von wem sprechen wir hier? Wer produziert Künstliche Intelligenz?
ChatGPT aus den USA, Microsoft mit CoPilot. Google hat mit Gemini die meisten Daten, die derzeit noch kostenfrei sind, allerdings kostenpflichtig werden könnten, von Apple weiß man noch nicht so genau, was geplant ist, und Amazon hat natürlich auch sehr viele Daten.
Das heißt, Künstliche Intelligenz ist in privater Hand?
Es gibt schon Opensource-KIs, bei denen der Code und die Methoden öffentlich zugänglich sind, was zur Transparenz und zur breiten Beteiligung an der Entwicklung beiträgt. Dies könnte auch einen Beitrag leisten, dass KI-Technologien gerechter und zugänglicher gestaltet werden. Aber ja, die meisten entstehen in privaten Unternehmen, die ihre eigene KI entwickeln und betreiben. Diese Unternehmen haben meist starke Ressourcen, um große Datensätze zu sammeln, wie etwa Google, und die komplexen Algorithmen zu entwickeln.
Die Entwicklungsteams müssen diverser sein und bestimmte Werte verankern.Julia Eisner
Was wäre eine mögliche Lösung, damit Frauen in KI gleichberechtigt sind?
Möglichkeiten wären Frauenquoten und verpflichtende Diversitätsberichte. Frauenquoten wären ein nützliches Instrument, kurz- bis mittelfristige Veränderungen zu fördern. Solch eine Quote sollte jedoch Teil einer umfassenderen Strategie sein, die darauf abzielt, strukturelle Ungleichheiten in der technischen Bildung und Karriereentwicklung anzugehen. Zudem der Ausbau von Schulungs- und Weiterbildungsmöglichkeiten, damit mehr Frauen sich für die sogenannten MINT-Fächer und infolgedessen für MINT-Berufe interessieren. Da fängt es schon in der Schule an. Es gibt viel zu wenige Angebote, um Frauen für die technische Sparte zu begeistern beziehungsweise diese umzuschulen. Auch Netzwerke wie Women in AI können Rolemodels vor den Vorhang holen und so Frauen motivieren, sich mehr damit auseinanderzusetzen. Ansonsten benötigt es praktische und laufende Überprüfung von KI-Modellen und die Testung in Forschungsprojekten.
Wenn KI hauptsächlich in und durch private Firmen kreiert wird, wie können wir sicherstellen, dass gewisse Werte wie Gender-Gerechtigkeit eingehalten werden?
Ein Ansatz könnte sein, dass Unternehmen, um glaubwürdig in Zeiten von KI/Digitalisierung sein zu können, einen Code of Conduct, also eine Guideline für den Einsatz von KI definieren, damit intern, aber auch extern klar ist, wie sie damit umgehen, welche Folgen es hat und wie sie den menschzentrierten Ansatz umsetzen.
Was passiert gerade in der EU zu KI?
Der EU-AI-Act ist der erste Vorschlag, Künstliche Intelligenz zu regulieren und so globale Standards zu setzen. Und Europa ist gerade dabei, sich darauf zu einigen. Dieses Regelwerk kategorisiert KI-Systeme basierend auf ihrem Risiko für die Gesellschaft, von geringem Risiko bis hin zu inakzeptablen Risiken. Ein Hauptaugenmerk liegt auf der Gewährleistung der Sicherheit und der Grundrechte der Menschen. Ein zentraler Punkt des Gesetzes ist das Konzept der menschlichen Aufsicht − also wir Menschen sind immer im Loop. Ziel ist es, Technologien zu fördern, die transparent, nachvollziehbar und verantwortungsvoll sind.
Ist der EU-AI-Act weit- bzw. tiefgehend genug? Sind darin alle Werte enthalten, die wir als Gesellschaft hochhalten?
Wie er in der Praxis integriert wird, und wie weitreichend dies sein wird, kann man zum jetzigen Zeitpunkt noch nicht sehen, aber er liefert einen wichtigen Beitrag zur Transparenz. Der EU-AI-Act klassifiziert KI-Systeme nach Risikostufen und legt für jede Kategorie spezifische Anforderungen fest. Dieser Ansatz soll sicherstellen, dass strengere Regelungen für Anwendungen gelten, die potenziell höhere Risiken bergen, wie etwa biometrische Überwachung oder KI in der Strafjustiz. Die Implementierung der Werte wird noch auf der Ebene der Unternehmen und Entwicklung wichtig sein. Aber es ist der erste Schritt in die richtige Richtung.
Bei uns wird derzeit an einer ethisch fairen KI geforscht.Sozialforscherin Julia Eisner
Gibt es in Österreich KI-Forschungen?
Es gibt viele Forschungsprojekte. Jede Uni/FH macht etwas zu KI, aber auch Forschungsinstitute. Gefördert werden die Projekte zum Beispiel von der Österreichischen Forschungsförderungsgesellschaft oder es gibt viel Geld von der EU für Initiativen. Bei uns wird derzeit an einer ethisch fairen KI geforscht.
Das Ergebnis können dann Firmen anwenden – oder eben nicht.
Prinzipiell kommen immer Berichte heraus, die sich Unternehmen durchlesen und die Erkenntnisse umsetzen können. Die Berichte und Ergebnisse werden öffentlich gemacht. Das Wichtigste ist aber, dass im Entwicklungs- und Anwendungskontext geforscht wird. Daraus werden lehrreiche und geschlossene Use Cases entstehen. Es ist notwendig, dass wir Use Cases entwickeln, um zu wissen, wie die Implementierung von EU-konformen AIs aussehen kann, um Empfehlungssysteme zu entwickeln.
Es braucht also dringend Regulierungen und Überprüfungen in der Praxis …
Ja, um sicherzustellen, dass die Entwicklungen den ethischen Standards entsprechen. Die Technologie-Treiber sollte man auch fragen, wie viele Daten wirklich notwendig bei der Entwicklung sind, Stichwort Datensparsamkeit. Brauche ich wirklich zwingend Daten über Geschlecht oder Alter für mein Ergebnis? KI-Systeme sollten transparent und ihre Entscheidungsprozesse nachvollziehbar sein, um Vertrauen bei den Nutzern zu schaffen und eine verantwortungsvolle Nutzung zu gewährleisten. Dies ist besonders wichtig in kritischen Bereichen wie der Medizin oder der Rechtsprechung, wo Entscheidungen erhebliche Auswirkungen haben können. Denn mit der zunehmenden Leistungsfähigkeit steigt auch das missbräuchliche Anwenden von KI-Systemen - daher muss man sensibilisiert sein und dem entgegenwirken.
Dir hat dieser Beitrag besonders gut gefallen oder du hast Hinweise für uns - sag uns deine Meinung unter feedback@wienerzeitung.at. Willst du uns helfen, unser gesamtes Produkt besser zu machen? Dann melde dich hier an.
Infos und Quellen
Genese
Bei einer Ring-Vorlesung der Uni Wien zum Thema Künstliche Intelligenz sprach die Soziologin Julia Eisner das Beispiel „The doctor yelled at the nurse“ an. Das Bild, das dazu in AI produziert wird, ist ein Mann, der eine Krankenschwester anschreit. Tatsächlich generiert etwa ChatGPT die Übersetzung, das „Bild“, von einem Mann im weißen Kittel und einer Krankenschwester. WZ-Redakteurin Ina Weber hat daraufhin ChatGPT gefragt, warum es doctor und nurse mit den Stereotypen Mann und Krankenschwester verbindet und nicht mit einer Ärztin und einem Krankenpfleger. ChatGPT hat sich daraufhin bei der WZ-Redakteurin entschuldigt. Es sei ein Fehler gewesen, diese Geschlechterrollen anzunehmen.
Gesprächspartnerin
Julia Eisner ist wissenschaftliche Mitarbeiterin an der Fachhochschule Wiener Neustadt. Ihr Schwerpunkt liegt im Bereich der empirischen Sozialforschung und Consumer Research und der ökologisch und gesellschaftlich verantwortungsvollen Anwendung von Daten und Künstlicher Intelligenz. Sie ist Mitglied des Netzwerkes Women in AI.
Daten und Fakten
Die Definition der EU für Künstliche Intelligenz ist "die Fähigkeit einer Maschine, menschliche Fähigkeiten wie logisches Denken, Lernen, Planen und Kreativität zu imitieren. KI ermöglicht es technischen Systemen, ihre Umwelt wahrzunehmen, mit dem Wahrgenommenen umzugehen und Probleme zu lösen, um ein bestimmtes Ziel zu erreichen. […] KI-Systeme sind in der Lage, ihr Handeln anzupassen, indem sie die Folgen früherer Aktionen analysieren und autonom arbeiten.”
Generative KI bezeichnet Deep-Learning-Modelle, die in der Lage sind, Texte, Bilder und weitere Inhalte in hoher Qualität zu generieren. Generative KI-Modelle werden typischerweise mittels sehr großer Datenmengen trainiert, welche oftmals aus dem Internet stammen.
Historische Steps: KI gibt es seit 1945. Durch den Smart-Home-Boom im Jahr 2010 hat KI Einzug in unser Zuhause gefunden. 2010 kam der Google-Übersetzer, 2017 neue große Sprachmodelle. 2021 Durchbruch von ChatGPT und anderer Anbieter.
MINT-Fächer: Mathematik, Informatik, Naturwissenschaften, Technik
Das EU-Parlament hat dem EU-AI-Act im März 2024 zugestimmt. Jetzt muss nur noch der EU-Rat diesen annehmen. Das soll noch vor der EU-Wahl im Juni geschehen.
KI im Alltag: Mein Staubsauger-Roboter: Der Staubsauger-Roboter lernt seine Route. Je länger er fährt, desto besser lernt er seine Umgebung kennen. Meine Social-Media-Plattformen: Algorithmen bestimmen, welche Inhalte und Anzeigen mir angezeigt werden, basierend auf meinen Interaktionen und Vorlieben. Dies kann zur Bildung von sogenannten „Filterblasen“ führen, die die Wahrnehmung der Realität und den Meinungsbildungsprozess beeinflussen können. Mein Smartphone: Gesichtserkennung und sprachgesteuerte Assistenten wie Siri und Alexa. ChatGPT: Es werden Texte generiert, der eigene Schreibstil analysiert, für Abschlussarbeiten recherchiert oder Bilder und Videos generiert.
Was muss ich bei der Anwendung von KI beachten? Es ist wichtig, was und wie wir prompten: Je besser wir prompten, desto bessere Ergebnisse bekommen wir. Die KI muss eine Rolle einnehmen, damit man für das Thema sensibilisiert wird. Personen- bzw. Unternehmensdaten dürfen niemals eingegeben werden. Wir sprechen hier von einer Blackbox, niemand weiß, was passiert, bzw. wo die Daten landen und dann ausgespielt werden, außer man befindet sich in einer gesicherten Anwendung, bei der die Eingabedaten nicht für Trainingszwecke verwendet werden. Das Ergebnis muss kritisch reflektiert werden: Ist das die Wahrheit? Stereotype erkennen und kritisch reflektieren. An der Quellenangabe erkennt man die Wissenschaftlichkeit.
Women in AI ist eine weltweite Non-Profit-Initiative, die die Frauen vor den Vorhang holen möchte. Viele Expertinnen möchten die Gesellschaft für Women in AI sensibilisieren. Kontaktaufnahme über LinkedIn; neue Website, neuer Newsletter starten demnächst.
ChatGPT entschuldigt sich: Entschuldigung dafür! Das war ein unbeabsichtigtes Klischee, das ich verwendet habe. In der Realität können Ärzte und Krankenschwestern jede Geschlechtsidentität haben. Es war ein Fehler, diese Geschlechterrollen in meiner Beschreibung anzunehmen. In einer realistischeren Darstellung könnten sowohl der Arzt als auch die Krankenschwester jedes Geschlecht haben. Es ist wichtig, Stereotypen zu vermeiden und Menschen in verschiedenen Berufen und Rollen gleichermaßen darzustellen. Danke, dass du das angesprochen hast!
Quellen
Ring-Vorlesung: Künstliche Intelligenz: Spannungsfelder, Herausforderungen und Chancen
FWF – Forschungsförderungsinstitut
Das Thema in anderen Medien
Der Standard: Warum so wenige Frauen in MINT-Berufe wollen