Intelligente Recherche

Doch warum sollte Künstliche Intelligenz über Menschen entscheiden dürfen? "Derartige Sachentscheidungen wären ein sinnvolles Einsatzfeld für KI, wenn schlüssige Kriterien die Basis sind", sagt Perner. Die solcherart entlasteten Richter könnten sich inhaltlich schwierigeren Angelegenheiten widmen. Wichtig aber sei, dass der von einer Entscheidung Betroffene einen Rechtsbehelf erheben kann und sein Recht auf ein Verfahren vor dem gesetzlichen Richter gewahrt bleibt. Die österreichische Verfassung würde aber ohnehin keine Experimente mit unausgereifter KI zulassen, meint Perner.

Die größte KI-Pionierarbeit leisten daher auch die Anwaltskanzleien. Ein Beispiel: das System Ross von IBM. Diese KI-Software durchsucht Datenbanken nach juristischen Texten und Urteilen. Der Anwalt kann ihr offene Fragen stellen, die von der lernenden Software immer präziser beantwortet werden. Wie zuverlässig ein solches System heute in Österreich funktioniert, darüber werde kaum gesprochen, meint Perner. Anwälte könnten künftig mit genug Daten die Argumentationslinien vergangener Fälle analysieren und somit die Erfolgsquote ihrer aktuellen Strategie berechnen, meint Sepp Hochreiter.

Dass Künstliche Intelligenz auch an ethische Grenzen stößt, zeigt das umstrittene Prognose-Tool "Compas". Die KI-Software berechnet an Gerichten in den USA die Wahrscheinlichkeit, ob ein frühzeitig entlassener Häftling erneut straffällig werden könnte. Das Problem dabei: Die Frage des Algorithmus, ob die Eltern bereits verhaftet wurden, trifft Schwarze Menschen öfter als Weiße. Was nicht bedeute, dass Schwarze krimineller wären, sondern dass sie wegen Diskriminierung häufiger festgenommen wurden, so Perner.

Kontroverse Prognosen

Dass Vorurteile in KI-Systemen fortgeschrieben werden, führt zum Grundproblem der Künstlichen Intelligenz: Ihre Ergebnisse sind nur so gut, wie der Mensch, der ihren Algorithmus programmiert. Bringt der Mensch der KI fehlgeleitete Ansichten bei, wird die KI genauso fehlgeleitet agieren. Kann der Algorithmus jemals vom politisch, kulturell oder religiös geprägten Vorurteil befreit werden? "Wir können die Inputdaten säubern, sodass die Hautfarbe nicht mehr ableitbar ist", sagt Hochreiter zuversichtlich. "Allerdings gehen damit wichtige andere Daten wie Herkunft oder Einkommen verloren." Ein ähnliches Problem entzündet sich bei Recruiting-Programmen, wenn aus Bewerbungsdaten Informationen über das Geschlecht entfernt werden sollen.

KI als Lügendetektor