Zuletzt war es der Algorithmus des Arbeitsmarktservice (AMS), der Künstliche Intelligenz wieder in die Kritik brachte. Die KI des AMS ermittelt auf Basis des Lebenslaufs und bestehender Vermittlungsdaten die individuellen Jobchancen von Arbeitssuchenden. Wer nur die Pflichtschule besucht hat, Kinder oder Angehörige betreuen muss, chronisch krank oder behindert ist oder Migrationshintergrund hat, wird als schlecht vermittelbar eingestuft und landet in der schlechtesten Kategorie "C". Personen in dieser Kategorie sollen ab Mitte 2020, wenn der Algorithmus in den Echtbetrieb übergeht, keine Schulungen mehr erhalten, sondern in dafür eigens eingerichteten Zentren beraten werden. "Würdelos" sei diese Vorsortierung durch eine Maschine, kommentierte Sarah Spiekermann, Forscherin an der Wirtschaftsuniversität Wien. Arbeitnehmervertreter wie die AK Wien und der ÖGB kritisierten, dass die KI bestehende Diskriminierung etwa von Frauen und Migranten fortführe.

Angesichts der enormen technologischen Fortschritte auf dem Gebiet des maschinellen Lernens stellt sich die Frage, ob das zwingend so sein muss. Müssen wir wirklich damit leben, dass menschliche Vorurteile und strukturelle Diskriminierung automatisch in eine KI einfließen? Der KI-Forscher Günter Klambauer ist einer, der dies wissen müsste.

500 Studierende für Studiengang Artificial Intelligence

Es gehe gerade noch etwas "hektisch" zu, sagt Günter Klambauer entschuldigend, als wir ihn im Zentrum für Fernstudien der Johannes Kepler Universität Linz (JKU) in der Strozzigasse in der Wiener Josefstadt besuchen. Seit Anfang Oktober wird an der JKU erstmals der Studiengang "Artificial Intelligence" angeboten, einer der ersten Studiengänge in Europa für Künstliche Intelligenz. Mit höchstens 60 Studierenden hatte man gerechnet – 500 sind gekommen.

Günter Klambauer in seinem Büro am Zentrum für Fernstudien der Johannes Kepler-Universität Linz in Wien. Klambauer will Künstliche Intelligenz für die Entwicklung neuer Wirkstoffe einsetzen. Der Studiengang "Artificial Intelligence" an dem er unterrichtet, war binnen kürzester Zeit überlaufen. - © Christoph Liebentritt
Günter Klambauer in seinem Büro am Zentrum für Fernstudien der Johannes Kepler-Universität Linz in Wien. Klambauer will Künstliche Intelligenz für die Entwicklung neuer Wirkstoffe einsetzen. Der Studiengang "Artificial Intelligence" an dem er unterrichtet, war binnen kürzester Zeit überlaufen. - © Christoph Liebentritt

Klambauer forscht zu den Grundlagen des maschinellen Lernens. Seine KI-Lösungen sind dazu gedacht, neue medizinische Wirkstoffe zu finden. Beim AMS-Algorithmus, erklärt er in seinem Büro, handele es sich um eine "ganz einfache Form einer KI". Im Fall des AMS lernt die Software auf der Basis der Vermittlungsdaten der Vergangenheit und der Lebensläufe vermittelter bzw. nicht vermittelter Personen, welche Eigenschaften von Menschen für den Vermittlungserfolg scheinbar relevant sind. Das Ziel ist, dass die Software Menschen entsprechend ihrer Jobchancen klassifizieren kann.

Vorurteile: Die Software kann nicht anders

Die Software muss aus den vorhandenen Daten selbstständig Eigenschaften, Regeln oder Muster ableiten, die zuverlässig indizieren, ob jemand Aussicht auf einen Job hat oder eben nicht. Das Problem: Die Software kann nicht anders, als die Daten der Vergangenheit in die Gegenwart und Zukunft zu projizieren. Wenn die Vergangenheit gezeigt hat, dass Kinder die Jobaussichten mindern und Frauen häufig Kinder betreuen, oder dass Frauen nur Jobs mit geringem Gehalt bekommen, wird die KI folgern, dass Frauen grundsätzlich schwer vermittelbar sind und wenn, dann auf Teilzeitarbeitsplätze. "Wenn in einem Datensatz Männer immer mehr verdienen als Frauen, dann wird auch die KI dementsprechend handeln", sagt Klambauer. Der AMS-Algorithmus ist wie alle KI somit recht gut darin, die Realität struktureller Benachteiligung abzubilden und zu wiederholen.

Für unsere Zukunft heißt dies zunächst nichts Gutes: Die meisten KI-Lösungen, die heute im Einsatz sind, sind derartige lernende Systeme. Sie reproduzieren durch ihre Entscheidungen immer aufs Neue die Entscheidungen der Vergangenheit. Ein Perpetuum mobile, das auf ewig rückwärts dreht?

Künstliche Intelligenz: Vergangenheit in Endlosschleife, überall?

KI dieser Form wird sich noch weiter in der Alltags- und Lebenswelt ausbreiten: Eine Studie der KMU Forschung Austria (KMFA) zeigt etwa, dass in Österreich vor allem Versicherungen und Software-Entwickler KI-Systeme einsetzen. Versicherungen sind daran interessiert, möglichst zuverlässige Risikoeinschätzungen zu entwickeln. Im Maschinenbau hingegen, wo es weniger um Klassifikation als um Planung geht, wird KI noch überraschend wenig angewandt, sagt die Studie der KMFA. Wie großflächig sich KI in Assessment-Verfahren wie jenem des AMS verbreiten werde, ist laut Klambauer aber schwer zu sagen, weil Unternehmen sich selten in die Karten schauen lassen wollen. In China ist Social Scoring allerdings bereits üblich, in den USA werden auch Entscheide auf vorzeitige Haftentlassung KI-Systemen überlassen. Im Bereich der Kreditvergabe ist der Einsatz von KI ebenfalls Normalität.

Artificial Intelligence ist besonders stark in der Bilderkennung. Diese Stärken können zum Beispiel in der biomedizinischen Forschung zur Analyse von Zellen eingesetzt werden. - © Christoph Liebentritt
Artificial Intelligence ist besonders stark in der Bilderkennung. Diese Stärken können zum Beispiel in der biomedizinischen Forschung zur Analyse von Zellen eingesetzt werden. - © Christoph Liebentritt

Gerade weil sich KI besonders für Klassifizierungen eignet, schlagen die 130 Experten des österreichischen Berichts, der einmal eine AI-Strategie für Österreich begründen soll "die Formulierung eines gesamtheitlichen KI-Gesetzes" vor, das auch "die ethischen Aspekte mit den Fragen Recht, Nutzbarkeit und Sicherheit in Einklang bringt". Die "Berücksichtigung sozialer Auswirkungen" wird von den Expertinnen und Experten extra hervorgehoben. Außerdem schlagen die Experten die Schaffung einer einschlägigen Ethikkommission vor – obgleich Österreich bereits über einen Robotikrat verfügt, der sich auch ethischen Fragen widmet. Doch offenbar bahnt sich aus Expertensicht ein größerer Bedarf an ethischer Bewertung an.

 

Deep Learning: Google dominiert auch diesen Markt

Vor dem Hintergrund der Marktmacht von Google, Amazon & Co., die nicht nur den Markt, sondern auch die Forschung zu KI dominieren, versucht Österreich nachzuholen: 350 Millionen Euro wurden zwischen 2012 und 2017 vom Bund in KI-bezogene Forschung investiert. Die Österreichische Forschungsförderungsgesellschaft (FFG) fördert Forschungs- und Innovationsprojekte zum Thema KI aktuell mit rund 90 Millionen Euro pro Jahr. 46 universitäre und außeruniversitäre Forschungseinrichtungen beschäftigen sich hierzulande mit KI-Themen. Von Robotik über autonome Systeme bis zu maschinellem Lernen deckt Österreich die relevanten Forschungsbereiche ab. Viele Universitäten richten eigene Studienschwerpunkte ein und versuchen, dem erwarteten zukünftigen Bedarf an KI-Nachwuchskräften zu entsprechen. "In Österreich gibt es eine sehr gute Verbindung zwischen universitärer Forschung, neuesten KI-Technologien und der Industrie. Österreich hat die Chance, sehr schnell aufzuholen", sagt auch Klambauer.

Die Ausbildungen im Bereich KI sind technische Studien. Ethische und gesellschaftliche Fragen spielen in den Ausbildungen in der Regel keine oder nur eine untergeordnete Rolle.

Technisch ist es ein Leichtes, Diskriminierung zu vermeiden, sagt Klambauer. "Die einfachste Möglichkeit ist, das Geschlecht einfach nicht zu kodieren", so der Bioinformatiker. "Will ich eine Vorverurteilung vermeiden, verschweige ich dem Algorithmus einfach die entsprechende Kategorie." Soweit die Theorie. In der Praxis bedeutet dies vor allem: viel Arbeit. Es gibt unendlich viele Kategorien und Kombinationen, die potenziell zu einem diskriminierenden Urteil führen. Sie alle zu kennen und zu vermeiden, ist so gut wie unmöglich.

Ein Lehrbuch für Deep Learning auf dem Schreibtisch von KI-Forscher Günter Klambauer. Kein Harry Potter. - © Christoph LIebentritt
Ein Lehrbuch für Deep Learning auf dem Schreibtisch von KI-Forscher Günter Klambauer. Kein Harry Potter. - © Christoph LIebentritt

Kann eine KI verstehen lernen, was fair ist und was nicht? Die neuronalen Netze, die beim so genannten Deep Learning zum Einsatz kommen, sind theoretisch geeignet, einer KI so abstrakte und nebulöse Konzepte wie etwa "Fairness" beizubringen. Klambauer versucht derzeit genau dieses. Die KI soll Vorurteile und Verzerrungen selbst als solche erkennen und bereinigen.

Künstliche neuronale Netze ähneln in ihrem Aufbau und ihrer Funktionsweise biologischen neuronalen Netzen. Die einzelnen Neuronen werden mathematisch erzeugt und verknüpft. So werden Netze geschaffen und in hierarchischen Ebenen angeordnet. Ein Algorithmus kann dann selbstständig weitere Abstraktionsebenen generieren, immer komplexere Modelle entwerfen und von den ursprünglichen Eingabedaten immer weiter abstrahieren. Deep Learning ist damit theoretisch in der Lage, Aufgaben, die Menschen intuitiv urteilend lösen, mathematisch zu bewältigen.

Doch auch Deep Learning braucht eine Trainingsphase, in der die Maschine lernt, was fair ist und was nicht. Ebenso, wie der Mensch für die KI bestimmt, was eine Katze ist, bevor die KI sie verlässlich identifizieren kann. "Die Zielfunktion – was fair ist und was nicht – muss der Mensch designen", erklärt Klambauer.

Die Antwort auf die Frage, wie die Vorurteile in die KI kommen, muss daher wohl lauten: Sie waren immer schon da. Sie werden bleiben, solange wir den Zweck der KI nicht hinterfragen.