Künstliche Intelligenz kommt bereits in Gerichtsverfahren zum Einsatz: Dadurch kann sie die Urteile beeinflussen und hochmanipulativ agieren.
Angenommen, du sitzt auf der Anklagebank vor Gericht. Du fürchtest das Urteil, bist schweißgebadet und wie gelähmt, hoffst, dass dir der/die Richter:in wohlgesonnen ist und menschlich agiert. Und nun stell dir vor, dass es gar kein Mensch ist, der dieses Urteil spricht. Sondern Künstliche Intelligenz (KI), die deinen Fall, basierend auf unzähligen ähnlich gelagerten Fällen, entschieden hat. Hättest du mehr oder weniger Angst? Würdest du dich von der KI gerechter behandelt fühlen – oder nicht?
- Mehr für dich: Waldbrände in Kalifornien: Wie eine Familie alles verlor
Noch ist es nicht so weit. Das Szenario ist ein Gedankenexperiment, das Letzturteil fällt weltweit nach wie vor der Richter oder die Richterin. Auf dem Weg zu diesem spricht KI allerdings mitunter schon erheblich mit – und das könne sich auch auf die Urteile auswirken, sagt Sophie Martinetz, Gründerin und Leiterin von Future-Law und Director des WU Legal Tech Centers, im Gespräch mit der WZ. Und: China bereite bereits vor, dass KI künftig auch Gerichtsurteile fällen darf.
Generierte Beweismittel
Auf den ersten Blick wirkt der aktuelle Einsatz der KI in der Justiz bedenkenlos. „In Deutschland und der Schweiz fasst sie große Mengen an Dokumenten zusammen und kürzt sie“, sagt Martinetz. In Deutschland kam sie zum Beispiel bei den Klagen im sogenannten Dieselskandal zum Einsatz, bei dem seit 2015 unterschiedliche Autohersteller gesetzlich vorgeschriebene Abgas-Grenzwerte umgingen. Bereits im Vorfeld filterte sie die für sie relevanten Informationen aus den Klagen heraus. In China generiere KI auch schon Bilder als Beweismittel für Gerichtsprozesse, sagt Martinetz: So könnte im Fall eines Skiunfalls etwa ein Gutachter die KI mit seinen gesammelten Fakten füttern, woraufhin diese zur besseren Veranschaulichung ein komplettes Video daraus erstellt; und dafür nicht faktenbasierte Details dazuerfindet.
„Wird dieses Video vor Gericht präsentiert, kann das hochmanipulativ sein“, sagt Martinetz, „denn was wir sehen, das glauben wir.“ Und selbst durch das simple Zusammenfassen oder Vorsortieren der Dokumente könne KI den Prozess und damit das Urteil in eine ganz bestimmte Richtung lenken. „Es geht um die Fragen: Was nehme ich rein? Was lasse ich weg? Damit ist auch KI subjektiv.“
„KI ist immer rückwärtsgewandt“
Problematisch werde es, wenn die KI zum Beispiel Menschen mit dunkler Hautfarbe benachteiligt – und zwar deshalb, weil der Algorithmus aus den Fällen der Vergangenheit lernt. „Genau das ist der wesentliche, der zentrale Unterschied zwischen KI und Mensch“, sagt dazu Michael Kunz, Richter am Oberlandesgericht Wien. „KI ist immer rückwärtsgewandt. Der Mensch hingegen, konkret der Jurist, entwickelt die Gesetze ständig weiter, indem er sie je nach Sachverhalt neu auslegt und interpretiert. Das ist ein Kernbereich der richterlichen Tätigkeit.“
Wie sieht es also aktuell in der Europäischen Union (EU) und Österreich mit KI in der Justiz aus? Hier steht man deren Einsatz kritisch gegenüber. Um diesen zu regeln, hat die EU am 12. Juli dieses Jahres den AI Act der EU in ihrem Amtsblatt veröffentlicht. Kernpunkt ist, die Grundrechte in unterschiedlichen Bereichen des Lebens zu schützen. So wird etwa die Kategorisierung auf Grundlage sensibler Merkmale wie Hautfarbe oder politische und religiöse Ansichten verboten. Bei Verstößen drohen Strafen von bis zu 35 Millionen Euro.
Strenge Regeln für Hochrisiko-KI
Der AI Act der EU teilt die KI-Anwendungen in unterschiedliche Risiko-Kategorien ein – zu den Hochrisikosystemen zählen auch KI-Systeme, „die dazu bestimmt sind, von einer Justizbehörde [...] eingesetzt zu werden, um eine Justizbehörde [...] bei der Anwendung des Rechts auf einen konkreten Sachverhalt zu unterstützen“, ist hier zu lesen. Hochrisikosysteme dürfen zwar verwendet werden, unterliegen aber strengen Regeln.
„Der Einsatz von KI als Assistenz in Gerichtsverfahren ist somit unter strengen Auflagen zulässig“, sagt Kunz, „ein vollständiges Delegieren der Entscheidungen an die KI aber nicht.“
Fixer Bestandteil der österreichischen Justiz
KI sei daher auch schon fixer Bestandteil der österreichischen Justiz, ersetze aber keine gerichtlichen und/oder behördlichen Entscheidungen, heißt es auf Nachfrage der WZ vom Justizministerium. Sie leite E-Mails gleich an die richtigen Empfänger:innen weiter, erkenne Literaturverweise in sämtlichen Dokumenten des Aktes und setze Links oder anonymisiere Gerichtsentscheidungen: Mit Hilfe von Natural Language Processing (einer speziellen Form von KI) werden sensible Informationen wie Namen, Adressen und Parteienrollen erkannt und anschließend anhand der geltenden Anonymisierungsregeln bearbeitet, so das Ministerium.
Mit Anwendungen wie diesen, durch die Menschen schneller zu ihrem Recht kommen, ist es auch laut der Juristin Martinetz sinnvoll, KI einzusetzen – sowohl in Österreich als auch weltweit: In Ländern wie Indien etwa liegen Millionen von Fällen jahrelang, bis sie bearbeitet werden.
Bleibt noch die Frage, ob Richter:innen immer gerecht über die Angeklagten entscheiden: Auch das sei dahingestellt, meint sie. Eine israelische Studie habe nämlich ergeben, dass hungrige Richter:innen kurz vor dem Mittagessen härtere Urteile fällen. Konkret ging es um die Frage, ob Häftlinge auf Bewährung freigelassen werden sollen. Vor dem Mittagessen wollten die Richter:innen offenbar kein Risiko eingehen und entschieden eher gegen die Freilassung. Der Maschine passiert das nicht.
Dir hat dieser Beitrag besonders gut gefallen oder du hast Hinweise für uns - sag uns deine Meinung unter feedback@wienerzeitung.at. Willst du uns helfen, unser gesamtes Produkt besser zu machen? Dann melde dich hier an.
Infos und Quellen
Genese
Nachdem WZ-Redakteurin Petra Tempfer einen Podcast zum Thema „Warum KI nicht richten darf" mit der Juristin Sophie Martinetz gemacht hatte, stellte sie sich die Frage: Wo genau spricht KI vor Gericht schon mit? Die Antwort darauf gibt es zur Abwechslung nicht zu hören, sondern zu lesen.
Gesprächspartner:innen
Sophie Martinetz ist Gründerin und Leiterin von Future-Law, einer unabhängigen Plattform für Legal Tech, und Director des WU Legal Tech Centers.
Michael Kunz ist Richter am Oberlandesgericht Wien.
Daten und Fakten
Die Definition des Europäischen Parlaments für Künstliche Intelligenz (KI) oder Artificial Intelligence (AI) ist „die Fähigkeit einer Maschine, menschliche Fähigkeiten wie logisches Denken, Lernen, Planen und Kreativität zu imitieren. KI ermöglicht es technischen Systemen, ihre Umwelt wahrzunehmen, mit dem Wahrgenommenen umzugehen und Probleme zu lösen, um ein bestimmtes Ziel zu erreichen. […] KI-Systeme sind in der Lage, ihr Handeln anzupassen, indem sie die Folgen früherer Aktionen analysieren und autonom arbeiten“.
Generative KI bezeichnet Deep-Learning-Modelle, die in der Lage sind, Texte, Bilder und weitere Inhalte in hoher Qualität zu generieren. Generative KI-Modelle werden typischerweise mittels sehr großer Datenmengen trainiert, welche oftmals aus dem Internet stammen.
KI gibt es seit 1945. Durch den Smart-Home-Boom im Jahr 2010 hat KI Einzug in unser Zuhause gefunden. 2010 kam der Google-Übersetzer, 2017 folgten neue große Sprachmodelle. 2021 gab es den Durchbruch von ChatGPT und anderen Anbietern.
Österreichs Ministerium für Bildung, Wissenschaft und Forschung zu Künstlicher Intelligenz
Quellen
Das Thema in der WZ
Das Thema in anderen Medien
Der Standard: Lügendetektor und Co: Künstliche Intelligenz könnte Justiz stark verändern
Der Standard: Wer haftet, wenn eine künstliche Intelligenz Schäden verursacht?
Zeit Online: Eisenreich will Forschung zu Einsatz von KI voranbringen
Süddeutsche Zeitung: Die Entmachtung des Menschen durch die Maschine?
National Geographic: Künstliche Intelligenz im Gerichtssaal: Wie weit darf Legal Tech gehen?
Neue Zürcher Zeitung: Die KI verlangt nach Anpassungen im Rechtssystem
Anwaltsblatt: Spricht der Mensch oder der Algorithmus Recht?