Die einen sehen darin ein wertvolles Hilfsmittel - die anderen warnen vor Fehlentscheidungen. Tatsache ist, dass man die Digitalisierung und auch die künstliche Intelligenz (KI) im Rechtsbereich vermutlich nicht aufhalten kann. In den USA setzt bereits eine der größten Kanzleien, BakerHostetler, das IT-System Ross von IBM in der Insolvenzabteilung ein, das Antworten auf juristische Fragen liefert. In London ließ man versuchsweise KI in hunderten Fällen des Europäischen Gerichtshofes für Menschenrechte urteilen. Mit 79 Prozent Wahrscheinlichkeit waren es richtige Entscheidungen im Sinne des Richters. Und selbst in der österreichischen Justiz kommen Digitalisierungswerkzeuge in ausgewählten Großverfahren testweise zum Einsatz, die bei der Vorarbeit wie dem Herausfiltern relevanter Daten helfen sollen.

- © adobe.stock/icedmocha
© adobe.stock/icedmocha

Dass künftig zukunftssichere Rahmenbedingungen für KI geschaffen und eine Strategie entwickelt werden soll, ist auch im aktuellen Regierungsprogramm enthalten. Dabei geht es unter anderem um "notwendige Studien über geeignete Gestaltungs- und Einsatzkriterien", heißt es. Von den rund 6000 Anwälten in Österreich nutzt laut der Juristin Sophie Martinetz erst ein Bruchteil KI. Die Hintergründe beleuchten Martinetz und der Informatiker und Branchenkenner Clemens Wasner im Interview.

Sophie Martinetz ist Managing Partnerin von Future-Law, eine unabhängige Plattform für Legal Tech und Digitalisierung im Rechtsbereich. Zudem ist die Juristin Gründerin und Leiterin des Unternehmens Seinfeld Professionals, das u.a. den Anwälten von Northcote.Recht die Infrastruktur zur Verfügung stellt. - © Marlene Rahmann
Sophie Martinetz ist Managing Partnerin von Future-Law, eine unabhängige Plattform für Legal Tech und Digitalisierung im Rechtsbereich. Zudem ist die Juristin Gründerin und Leiterin des Unternehmens Seinfeld Professionals, das u.a. den Anwälten von Northcote.Recht die Infrastruktur zur Verfügung stellt. - © Marlene Rahmann

"Wiener Zeitung": Was unterscheidet Suchmaschinen von künstlicher Intelligenz?

Clemens Wasner: Suchmaschinen waren bis 2015 ausschließlich regelbasiert. Egal, welche Suche man getätigt hat: Es sind durchschnittlich 200 verschiedene Algorithmen gelaufen, die zum Beispiel geprüft haben, ob es sich um eine verstorbene oder lebende Person handelt. Früher wurden die Suchroutinen manuell hineinprogrammiert, was es dementsprechend unflexibel machte. Der große Unterschied zu KI in der heutigen Ausprägung ist vor allem, dass diese selbst die Gesetzmäßigkeit aus den Daten lernt. Das nennt man auch Deep Learning. Es stellt fest, wo die stärkste Korrelation zwischen Input und Output herrscht.

Clemens Wasner ist Geschäftsführer von EnliteAI, einem auf die Anwendung von künstlicher Intelligenz spezialisierten Unternehmen aus Wien. Zudem ist der Informatiker Gründer von AI Austria, einem unabhängigen Thinktank. Davor war er mehr als zehn Jahre lang in der internationalen Unternehmensberatung tätig. - © privat
Clemens Wasner ist Geschäftsführer von EnliteAI, einem auf die Anwendung von künstlicher Intelligenz spezialisierten Unternehmen aus Wien. Zudem ist der Informatiker Gründer von AI Austria, einem unabhängigen Thinktank. Davor war er mehr als zehn Jahre lang in der internationalen Unternehmensberatung tätig. - © privat

Wie kann man sich das in der Praxis vorstellen?

Wasner:Stellen Sie sich vor, Sie haben eine Million Bilder vor sich liegen. Diese haben lediglich eine Textbeschreibung, was sich im Bild befindet. Also zum Beispiel Glas, Hut, Sessel. Das Deep-Learning-System schaut nun, welche Bildpunktpartien innerhalb dieser Bilder die stärkste Korrelation mit der textuellen Beschreibung haben. Das passiert vollkommen ohne menschlichen Zugriff. Deswegen sagt man auch, dass diese Systeme aus Daten lernen. Damit ist eigentlich gemeint, dass sie diese Korrelationen bilden. Bei dem Begriff KI, der aus 1955 stammt, handelt es sich aber nicht um eine einzelne Methode. Er beschreibt eine Forschungsdisziplin.

Was macht KI im Rechtsbereich?

Sophie Martinetz: Sie kann Textinhalte kategorisieren. Das heißt zum Beispiel, dass diese Technologie 50.000 Dokumente nach gewissen Kriterien in Klassen unterteilen kann. Das ermöglicht den Juristen eine gezieltere Analyse und Sichtung der relevanten Dokumente.

Wasner: Im angelsächsischen Raum gibt es schon eine ganze Reihe an Anwendungen. Zum Beispiel, wenn eine neue EU-Richtlinie kommt, sagen wir eine neue Umweltrichtlinie. Da ist es möglich, dass das KI-System schaut, welche Passagen im Vertragswerk von der Richtlinie betroffen sind.

Kann man sich darauf verlassen, dass das System alles entdeckt?

Martinetz:Nein, aber das kann man nie. Bei der KI geht es zum Beispiel darum, dass in Spezialistenteams nicht mehr hoch ausgebildete Juristen den ganzen Tag Unternehmensrichtlinien mit den neuesten Gesetzen abgleichen müssen. Diese Zusammenhänge kann ein Programm auch erkennen, und zwar um vieles schneller. Diese Automatisierung kann sozial aber schon bedenklich werden, wenn sie planlos eingesetzt wird.

Wasner: Ich sehe das nicht so. Das Jobprofil ändert sich. KI ermöglicht, menschengerechteren Jobs nachzugehen. Sie nimmt uns auch viele Tätigkeiten, in denen wir vielleicht nicht so gut sind, ab.

Heikler wird es, wenn diese Entscheidungen fällt. In welchen Bereichen wird sie diesbezüglich bereits eingesetzt?

Martinetz:Es gibt viele Entscheidungsräume, in denen der Prozess auch jetzt schon großteils automatisiert ist. Wenn jemand einen Mahnbescheid beantragt, ist das teilweise heute schon so, und ein Mensch schaut am Schluss noch drüber. Auch in Österreich.

Inwieweit ist eine Entscheidung durch KI rechtlich abgesichert?

Martinetz: KI und Recht ist ein spannendes Thema. Es gibt das Recht auf einen fairen Richter, es gibt das Recht auf Anhörung. Das alles steht einem im Gerichtssaal zu. Das ist die Frage, ob das alles gewährleistet ist, wenn KI in einer "black box" entscheidet. Denn vor Gericht geht es ja darum, den Menschen zu ihrem Recht zu verhelfen. Das Thema "white box", also dass wir genau verstehen, wie eine KI entschieden hat und aufgrund welcher Kriterien, wird uns die nächsten Jahre begleiten.

Entscheidet die Maschine mitunter unmenschlich?

Martinetz: Eine israelische Studie hat ergeben, dass hungrige Richter kurz vor dem Mittagessen härtere Urteile fällten. Bei der Studie ging es um die Frage, ob Häftlinge auf Bewährung freigelassen oder Auflagen erlassen werden. Vor dem Mittagessen wollten die Richter offenbar kein Risiko eingehen und haben im Zweifel eher gegen die Freilassung auf Bewährung entschieden. Der Maschine passiert das nicht.

Wasner: Ich würde sagen, sie entscheidet unmenschlich menschlich. Die bekanntesten Fälle stammen aus dem Personalbereich, sie betreffen Amazon und Google. Bei beiden Unternehmen wurde festgestellt, dass das KI-System Frauen benachteiligt. Frauen wurden nicht so oft befördert, und falls sie befördert wurden, haben sie eine um durchschnittlich 30 Prozent geringere Gehaltserhöhung bekommen als ihre männlichen Kollegen. Wenn man jetzt an die eine Million Bilder mit den Textbeschreibungen zurückdenkt, geht es da um einen ähnlichen Algorithmus. Er hat sich die vergangene Historie zu Beförderungen angeschaut und gesehen: Frauen schlagen wir eher nicht vor, und wenn doch, dann gibt es einen geringerer Gehaltsprung. Dadurch, dass sich die KI ausschließlich an der Vergangenheit orientiert, kommt immer etwas Menschliches heraus. Eine Maschine kann nicht von sich aus etwas komplett Neues erzeugen. Letztendlich ist es ein Spiegel, den sie uns vorhält.

Martinetz: Gefährlich wird das dann, wenn man sich genau darüber keine Gedanken macht. Denn dann verfestigt es vorhandene Strukturen nur noch stärker.

Inwieweit wird in der Juristenausbildung auf dieses Gefahrenpotenzial reagiert?

Martinetz: Die Universitäten fangen erst an, das Thema KI in die Ausbildung aufzunehmen. Das Schwierige daran ist, dass man immer glaubt, dass man den Studenten Programmieren beibringen muss. Man muss ihnen aber beibringen, technische Grundlagen zu verstehen und vor allem den Mut zu haben, Algorithmen zu hinterfragen.

Ist der Datenschutz ein Problem?

Martinetz:Derjenige, der das Werkzeug zur Verfügung stellt, muss dafür Sorge tragen, dass die Daten verifiziert sind und nicht biased, also voreingenommen. Das geht in Richtung Produkthaftung.

Wasner: Vergangenen April hat die EU-Kommission neue ethische Leitlinien für die Entwicklung vertrauenswürdiger KI vorgelegt und Vorschläge gebracht, wie diese in Gesetze gegossen werden können. Auf regulatorischer Ebene ist man also schon weiter - die User sind es noch nicht. Das Problem ist, dass sie noch immer in Gegensätzen denken. Aber KI und Datenschutz sind keine Gegensätze.

Martinetz: Ich finde es ja interessant, wie KI vertrauenswürdig sein soll. Vertrauen gibt es eigentlich nur zwischen Menschen . . .

Wird es für Klienten durch den Einsatz von KI-Systemen teurer werden?

Martinetz: All diese Dinge sind meiner Erfahrung nach gesamtheitlich nicht billig, weil der Weg derzeit noch lang ist. Man entwickelt eine Strategie, muss sie implementieren, das bedeutet alles Mehraufwand. Das ist aber bei jeder Veränderung so. Die Erstanschaffung ist immer eine Investition. Tatsache ist aber auch: Die Datenmenge wird einmal nicht mehr bewältigbar sein. KI arbeitet sie schneller auf, und das spart Geld. Früher hatte ja auch jeder Anwalt vier Sekretärinnen, die getippt haben. Heute gibt es Spracherkennungssysteme und nur noch eine halbe Sekretärin, wenn überhaupt.