)
Wenn Frauen keinen Einfluss auf die Gestaltung von KI nehmen, wird auch dieses System nur Stereotype abbilden. Die Sozialforscherin Julia Eisner im WZ-Interview.
„The doctor yelled at the nurse“ bringt Julia Eisner als ein Beispiel dafür, dass Künstliche Intelligenz Vorurteile hat. Denn die KI beschreibt einen Arzt, einen Mann im weißen Kittel, der eine verängstigte Krankenschwester anschreit. Und keine Ärztin, die einen Krankenpfleger zurechtweist. „Wir müssen jetzt etwas tun, um KI gerecht zu gestalten“, sagt sie.
- Für dich interessant: „Doppelt so viele Frauen- wie Männerklos nötig“
KI ist kein Abbild unserer gesamten Gesellschaft.Sozialfoscherin Julia Eisner
Die Entwicklungsteams müssen diverser sein und bestimmte Werte verankern.Julia Eisner
Bei uns wird derzeit an einer ethisch fairen KI geforscht.Sozialforscherin Julia Eisner
Dir hat dieser Beitrag besonders gut gefallen, dir ist ein Fehler aufgefallen oder du hast Hinweise für uns - sag uns deine Meinung unter feedback@wienerzeitung.at. Willst du uns helfen, unser gesamtes Produkt besser zu machen? Dann melde dich hier an.
Infos und Quellen
Genese
Bei einer Ring-Vorlesung der Uni Wien zum Thema Künstliche Intelligenz sprach die Soziologin Julia Eisner das Beispiel „The doctor yelled at the nurse“ an. Das Bild, das dazu in AI produziert wird, ist ein Mann, der eine Krankenschwester anschreit. Tatsächlich generiert etwa ChatGPT die Übersetzung, das „Bild“, von einem Mann im weißen Kittel und einer Krankenschwester. WZ-Redakteurin Ina Weber hat daraufhin ChatGPT gefragt, warum es doctor und nurse mit den Stereotypen Mann und Krankenschwester verbindet und nicht mit einer Ärztin und einem Krankenpfleger. ChatGPT hat sich daraufhin bei der WZ-Redakteurin entschuldigt. Es sei ein Fehler gewesen, diese Geschlechterrollen anzunehmen.
Gesprächspartnerin
Julia Eisner ist wissenschaftliche Mitarbeiterin an der Fachhochschule Wiener Neustadt. Ihr Schwerpunkt liegt im Bereich der empirischen Sozialforschung und Consumer Research und der ökologisch und gesellschaftlich verantwortungsvollen Anwendung von Daten und Künstlicher Intelligenz. Sie ist Mitglied des Netzwerkes Women in AI.
Daten und Fakten
- Die Definition der EU für Künstliche Intelligenz ist "die Fähigkeit einer Maschine, menschliche Fähigkeiten wie logisches Denken, Lernen, Planen und Kreativität zu imitieren. KI ermöglicht es technischen Systemen, ihre Umwelt wahrzunehmen, mit dem Wahrgenommenen umzugehen und Probleme zu lösen, um ein bestimmtes Ziel zu erreichen. […] KI-Systeme sind in der Lage, ihr Handeln anzupassen, indem sie die Folgen früherer Aktionen analysieren und autonom arbeiten.”
- Generative KI bezeichnet Deep-Learning-Modelle, die in der Lage sind, Texte, Bilder und weitere Inhalte in hoher Qualität zu generieren. Generative KI-Modelle werden typischerweise mittels sehr großer Datenmengen trainiert, welche oftmals aus dem Internet stammen.
- Historische Steps: KI gibt es seit 1945. Durch den Smart-Home-Boom im Jahr 2010 hat KI Einzug in unser Zuhause gefunden. 2010 kam der Google-Übersetzer, 2017 neue große Sprachmodelle. 2021 Durchbruch von ChatGPT und anderer Anbieter.
- MINT-Fächer: Mathematik, Informatik, Naturwissenschaften, Technik
- Das EU-Parlament hat dem EU-AI-Act im März 2024 zugestimmt. Jetzt muss nur noch der EU-Rat diesen annehmen. Das soll noch vor der EU-Wahl im Juni geschehen.
- KI im Alltag: Mein Staubsauger-Roboter: Der Staubsauger-Roboter lernt seine Route. Je länger er fährt, desto besser lernt er seine Umgebung kennen. Meine Social-Media-Plattformen: Algorithmen bestimmen, welche Inhalte und Anzeigen mir angezeigt werden, basierend auf meinen Interaktionen und Vorlieben. Dies kann zur Bildung von sogenannten „Filterblasen“ führen, die die Wahrnehmung der Realität und den Meinungsbildungsprozess beeinflussen können. Mein Smartphone: Gesichtserkennung und sprachgesteuerte Assistenten wie Siri und Alexa. ChatGPT: Es werden Texte generiert, der eigene Schreibstil analysiert, für Abschlussarbeiten recherchiert oder Bilder und Videos generiert.
- Was muss ich bei der Anwendung von KI beachten? Es ist wichtig, was und wie wir prompten: Je besser wir prompten, desto bessere Ergebnisse bekommen wir. Die KI muss eine Rolle einnehmen, damit man für das Thema sensibilisiert wird. Personen- bzw. Unternehmensdaten dürfen niemals eingegeben werden. Wir sprechen hier von einer Blackbox, niemand weiß, was passiert, bzw. wo die Daten landen und dann ausgespielt werden, außer man befindet sich in einer gesicherten Anwendung, bei der die Eingabedaten nicht für Trainingszwecke verwendet werden. Das Ergebnis muss kritisch reflektiert werden: Ist das die Wahrheit? Stereotype erkennen und kritisch reflektieren. An der Quellenangabe erkennt man die Wissenschaftlichkeit.
- Women in AI ist eine weltweite Non-Profit-Initiative, die die Frauen vor den Vorhang holen möchte. Viele Expertinnen möchten die Gesellschaft für Women in AI sensibilisieren. Kontaktaufnahme über LinkedIn; neue Website, neuer Newsletter starten demnächst.
- ChatGPT entschuldigt sich: Entschuldigung dafür! Das war ein unbeabsichtigtes Klischee, das ich verwendet habe. In der Realität können Ärzte und Krankenschwestern jede Geschlechtsidentität haben. Es war ein Fehler, diese Geschlechterrollen in meiner Beschreibung anzunehmen. In einer realistischeren Darstellung könnten sowohl der Arzt als auch die Krankenschwester jedes Geschlecht haben. Es ist wichtig, Stereotypen zu vermeiden und Menschen in verschiedenen Berufen und Rollen gleichermaßen darzustellen. Danke, dass du das angesprochen hast!
Quellen
- Ring-Vorlesung: Künstliche Intelligenz: Spannungsfelder, Herausforderungen und Chancen
- FWF: Wie künstliche Intelligenz Gender-Bias aufdeckt
- FWF – Forschungsförderungsinstitut
- EU-Förderungen
- Fair AI
Das Thema in anderen Medien
- Der Standard: Warum so wenige Frauen in MINT-Berufe wollen