Der Einsatz von auf Blackbox basierender künstlicher Intelligenz kann problematisch sein, wenn er gesellschaftliche Ungleichheiten verstärkt.
Hinweis: Der Inhalt dieser Seite wurde vor 4 Jahren in der Wiener Zeitung veröffentlicht. Hier geht's zu unseren neuen Inhalten.
Gleich einmal vorweg: "Blackbox KI" bedeutet nicht automatisch "bösartig" - sie bedeutet, dass wir nicht genau verstehen, wie und aufgrund welcher Kriterien künstliche Intelligenz (KI) entschieden hat. Aber der Einsatz von auf Blackbox basierender KI kann problematisch sein, wenn er gesellschaftliche Ungleichheiten verstärkt.
So hat der Chief Technology Officer des Unternehmens Basecamp David Heinemeier Hansson über die große Diskrepanz bei den Kreditkartenlimits, die er und seine Frau auf ihre Kreditkartenanfrage erhielten, auf Twitter hingewiesen: Er erhielt ein 20 Mal größeres Kreditlimit angeboten als seine Frau, obwohl die Basis der Evaluierung ihre gemeinsame Steuererklärung und die individuelle Kreditwürdigkeit war (und die seiner Frau war sogar besser seine). Auf Rückfragen beim Kreditkartenunternehmen konnte niemand die Diskrepanz erklären, sondern alle beriefen sich auf den verwendeten KI-Algorithmus, der das jeweilige Limit jedes Antragstellers bestimmt.
Bei Blackbox-Modellen können Benutzer die Input-Output-Beziehung einfach beobachten: Die Eingabe von Kundendaten führt zum Beispiel zur Zuteilung eines Kreditkartenlimits. Die zugrunde liegenden Gründe oder Prozesse für die Generierung des Outputs sind nicht verfügbar. Im Anwendungsfall eines Kreditantrags dürften beispielsweise Rasse und Geschlecht nicht zur Bestimmung der Anspruchsberechtigung von Personen für ein Kreditprodukt herangezogen werden.
Blackbox-Modelle verschärfen dieses Problem, und es ist weniger darüber bekannt, welche Variablen eine endgültige Entscheidung tatsächlich beeinflussen. Das heißt aber auch nicht, dass die Ergebnisse von Blackbox-Systemen nicht per se gut im Ergebnis sind.
Das Thema hat so viel Aufmerksamkeit erregt, dass Gartner "Whitebox KI", also "erklärbare KI", in seine Top zehn Daten- und Analysetechnologie-Trends von 2019 aufgenommen hat.
Was ist also eine erklärbare KI? Whitebox-Modelle sind Modelle, bei denen man klar erklären kann, wie sie sich verhalten, wie sie Vorhersagen produzieren und welche die Einflussgrößen und Kriterien sind: Erstens müssen die Kriterien verständlich sein, und zweitens muss der Machine-Learning-Prozess transparent sein. Gerade im rechtlichen Bereich ist es wichtig zu verstehen, welche Entscheidungskriterien gewählt wurden.
Nicht nur von Technikerzu Techniker verstanden
KI wird derzeit vermehrt in den Bereichen juristische Recherche, Dokumentenprüfung, e-Discovery und prädiktive Analyse eingesetzt. Das bedeutet für Legal-Tech-Unternehmen, dass sie eher Whitebox-Modelle erstellen müssten, die ein akzeptables Maß an Genauigkeit erfüllen und trotzdem Ergebnisse liefern, die von juristischen Anwendern selber erklärt und verstanden werden können. Und nicht nur von Techniker zu Techniker. Im Idealfall sind diese Kriterien fair und "unbiased", also unvoreingenommen und nicht basierend auf tradierten Vorurteilen wie zum Beispiel hinsichtlich des Geschlechts.
Denn nur, wenn der kritische juristische Anwender auf Dauer Vertrauen in KI-Modelle und deren Ergebnisse entwickeln kann, wird deren Einsatz zum Beispiel bei Gericht als Mehrwert genutzt werden können.
Whitebox-Modelle sind auch notwendig, damit Bürger und Bürgerinnen juristische Entscheidungsmodelle, die auf maschinellen Lernverfahren basieren, verstehen und hinterfragen können. Ohne Transparenz der KI-Annahmen, die in die Konstruktion von KI-Legal-Tech-Tools einfließen, besteht die Gefahr, dass menschliche Vorurteile in Systemen auf lange Zeit einzementiert werden.
Sie sind anderer Meinung?
Diskutieren Sie mit: Online unter www.wienerzeitung.at/recht oder unter recht@wienerzeitung.at