Zum Hauptinhalt springen

KI hinter Gefängnismauern

6 Min
"Mit KI werden jetzt auch Gesprächsmuster, Codewörter, verschlüsselte Kommunikation sowie Anzeichen für geplante Gewalt oder mögliche Drogendelikte erkannt", sagt KI-Experte Manuel Wolfsteiner im Interview mit der WZ.
© Illustration: WZ, Bildquelle: Adobe Stock, Manuel Wolfsteiner

KI-Experte Manuel Wolfsteiner erklärt im Interview mit der WZ, wie künstliche Intelligenz Verbrechen verhindern, aber zugleich Unschuldige treffen kann. Was Sicherheit verspricht, birgt massive ethische Risiken und ist in Europa kaum denkbar.


Künstliche Intelligenz mischt in den USA und in China längst mit bei Themen wie Freiheit, Sicherheit und Schuld, auch hinter Gefängnismauern. Während man in Europa noch über ethische Grenzen diskutiert, wird KI in diesen Ländern bereits eingesetzt, um Menschen zu überwachen, Risiken zu berechnen und künftiges Verhalten vorherzusagen.

Einer, der diese Entwicklungen genau analysiert, ist Manuel Wolfsteiner. Der 44-jährige KI-Experte, Trainer und Berater unterstützt Unternehmen bei der Integration von künstlicher Intelligenz in den Firmenalltag. Mit seinem Netzwerk ki-fit.at bietet er Schulungen, Trainings und Beratungen an. Für seine Kurse bei Unternehmen sowie Institutionen wie der Wirtschaftskammer oder dem WIFI recherchiert Wolfsteiner bewusst plakative Beispiele aus den USA und China und zeigt dabei sowohl die Chancen als auch die Risiken der Technologie auf.

WZ | Bernadette Krassay
Herr Wolfsteiner, Sie beschäftigen sich intensiv mit künstlicher Intelligenz, auch mit kontroversen Beispielen aus den USA oder China. Warum gerade diese Länder?
Manuel Wolfsteiner
Die USA und China betreiben den Einsatz von KI im Justizsystem sehr exzessiv, sogar in der Gefangenenüberwachung. Das werden wir in Europa allein wegen der EU-Regulierung voraussichtlich so nie haben. Die USA nutzen Überwachungstechnologien schon lange, wie etwa Gesichtserkennung, Fingerabdrücke oder biometrische Daten. Neu ist also nicht die Überwachung an sich, sondern die KI dahinter, die selbst lernt. Sie zieht eigene Schlüsse, trifft Entscheidungen und braucht den Menschen, sobald sie angelernt ist, kaum noch. Das ist einerseits spektakulär, weil alles viel schneller geht, aber die KI macht ihre Fehler. Wenn beispielsweise beim Versenden eines Mails etwas schiefgeht, ist das zwar nicht gut, aber nicht lebensentscheidend. Wenn die KI allerdings anfängt, über relevante Bereiche zu urteilen, und Rückschlüsse zieht und Aktionen setzt, wird es kritisch.
WZ | Bernadette Krassay
Was bedeutet das konkret für Gefängnisse?
Manuel Wolfsteiner
Dort werden Telefonate abgehört. Das war schon immer so und ist kein Geheimnis. Doch mit KI werden jetzt auch Gesprächsmuster, Codewörter, verschlüsselte Kommunikation sowie Anzeichen für geplante Gewalt oder mögliche Drogendelikte erkannt. Die KI kann auch Bewegungsmuster analysieren, etwa Bandenbildung im Hof oder aggressive Dynamiken. Das kann helfen, Gewalt zu verhindern. Aber es kann auch zu Fehleinschätzungen kommen.
WZ | Bernadette Krassay
Was passiert, wenn die KI falschliegt?
Manuel Wolfsteiner
Dann wird es heikel. In manchen US-Bundesstaaten werden KI-Einschätzungen eins zu eins übernommen, ganz nach dem Motto: 80 Prozent Trefferquote reichen uns, die restlichen 20 Prozent nehmen wir in Kauf. Die KI erkennt etwa Verhaltensmuster, gruppiert und wenn Anomalien auftauchen, werden die Wärter:innen gerufen. Es gibt sicher tolle Anwendungsfälle, aber immer mit dem Problem des Bias. Das kann bedeuten, dass jemand zu Unrecht isoliert, überwacht oder härter behandelt wird.
KI lernt aus bestehenden Daten und die sind oft rassistisch oder sozial verzerrt
Manuel Wolfsteiner
WZ | Bernadette Krassay
Sie sprechen von „Bias“. Was meinen Sie damit?
Manuel Wolfsteiner
KI führt zu Verzerrungen, denn sie lernt aus bestehenden Daten und die sind oft rassistisch oder sozial verzerrt. Wenn Afroamerikaner:innen historisch häufiger kontrolliert wurden, dann erscheinen sie in der Statistik als krimineller. KI verstärkt das weiter. Mehr Polizei in bestimmten Vierteln führt zu mehr Anzeigen, die wieder ins System zurückfließen. So entsteht ein sich selbst bestätigendes Muster.
WZ | Bernadette Krassay
Das gilt auch für Prognosen zur Rückfallquote?
Manuel Wolfsteiner
Ja. Die KI kann sagen: männlich, 34 Jahre alt, aus der Bronx, dreimal vorbestraft, also eine statistisch sehr hohe Rückfallwahrscheinlichkeit. Daraus werden Prognosen abgeleitet, also etwa wann, wo und welches Delikt der jeweilige Insasse begehen wird. Sie vergleicht das mit anderen Fällen. Diese Vorhersagen können erstaunlich oft stimmen, aber sie nehmen dem Einzelnen jede Chance, aus dem Muster auszubrechen.
WZ | Bernadette Krassay
Wie entstehen diese Prognosen?
Manuel Wolfsteiner
KI-gestützte Prognosen im Justizsystem entstehen durch statistische Modelle, die mit großen Mengen historischer, strukturierter Daten trainiert werden. Dazu zählen etwa frühere Gerichtsentscheidungen, Verfahrensverläufe, Rückfallstatistiken oder demografische Merkmale, soweit diese rechtlich zulässig sind. Die Systeme erkennen darin Muster und Zusammenhänge und berechnen auf dieser Basis Wahrscheinlichkeiten für bestimmte Ergebnisse. Es handelt sich nicht um eigenständiges Urteilen, sondern um datenbasierte Vorhersagen.
WZ | Bernadette Krassay
Seit wann kommt KI in diesem Ausmaß in den USA zum Einsatz?
Manuel Wolfsteiner
Machine Learning gibt es schon lange. Aber seit den sogenannten Transformer-Modellen ab 2017, also seit es leistungsfähige Sprachmodelle gibt, sehen wir einen massiven Anstieg, besonders in den letzten fünf Jahren. Der überwiegende Teil des Strafvollzugs in den Vereinigten Staaten von Amerika obliegt den einzelnen Bundesstaaten. Jeder Bundesstaat verfügt über eigene Strafgesetze, ein eigenständiges Gerichtssystem sowie eigene Gefängnis- und Bewährungseinrichtungen. Dadurch wird der Justizvollzug nicht zentral einheitlich geregelt, sondern folgt den jeweiligen landesrechtlichen Vorgaben. Manche Bundesstaaten nutzen also KI hemmungslos, während zum Beispiel Kalifornien dem äußerst skeptisch gegenübersteht.
WZ | Bernadette Krassay
Gibt es auch positive Effekte?
Manuel Wolfsteiner
Ja. Weniger Gewalt, weniger Suizide, frühere Erkennung von Aufständen oder Drogenringen. In US-Gefängnissen herrscht ein massiver Personalmangel. Deshalb wird KI dort so rigoros eingesetzt. KI und künftig auch Roboter sollen immer mehr Aufgaben übernehmen. Keine Wärter:innen, sondern Roboter werden in Zukunft durch die Gänge patrouillieren. Sie sind mit Wärmebildkameras und Sensoren ausgestattet. Auch bei der Essensausgabe und Medikamentenverteilung sollen sie zum Einsatz kommen. Ein Roboter ist ersetzbar, ein Mensch nicht. Viele wollen diesen Job schlicht nicht mehr machen.
WZ | Bernadette Krassay
Und wie überwachen diese Roboter die Häftlinge?
Manuel Wolfsteiner
Inzwischen werden den Gefängnisinsassen Wearables umgehängt und so werden ihre Vitaldaten überwacht. Damit können die Roboter auch erkennen, ob ein Insasse auf Drogen ist, ob sein Puls ansteigt, obwohl er in seiner Zelle liegt, selbst Suizidvorhersage ist damit möglich. Das große Problem sind immer Personenrechte und Datenschutz. Die USA sagen, wer in einem amerikanischen Gefängnis sitzt, hat sämtliche Rechte verwirkt.
China nutzt KI flächendeckend zur Überwachung seiner Bürger:innen im Alltag
Manuel Wolfsteiner
WZ | Bernadette Krassay
China geht da noch weiter?
Manuel Wolfsteiner
Ja. China nutzt KI flächendeckend zur Überwachung seiner Bürger:innen im Alltag, Stichwort Social Scoring. Verhalten wird bewertet und entsprechend belohnt oder sanktioniert. Die USA beschränken das weitgehend auf den Rechtsraum von Verurteilten. Die ethische Frage bleibt dieselbe: Sind wir bereit, einen hohen Preis zu zahlen, um mehr Sicherheit zu bekommen?
WZ | Bernadette Krassay
Inwiefern beantworten Europa und die USA diese Frage unterschiedlich?
Manuel Wolfsteiner
Europa sagt, wenn wir nicht nahezu hundert Prozent Sicherheit gegen Fehlentscheidungen garantieren können, setzen wir das System nicht ein. Die USA sagen, 80 Prozent Nutzen reichen. Die restlichen 20 Prozent sind der Preis. Das macht Europa langsamer und innovationsfeindlicher, schützt aber individuelle Rechte stärker.
WZ | Bernadette Krassay
Diese ethische Abwägung zieht sich auch durch andere Bereiche, etwa Medizin oder Personalentscheidungen.
Manuel Wolfsteiner
Absolut. Es gibt medizinische Diagnosen mit 90 Prozent Trefferquote durch KI. Die Frage ist: Will ich morgen eine schnelle Diagnose mit Risiko oder in sechs Monaten eine fast sichere? Ähnlich war es bei automatisierten Bewerbungsprozessen, etwa bei Amazon, wo eine KI Frauen systematisch aussortiert hat. Das wäre in Europa ein Skandal, in den USA ist es lediglich ein Fehler, der korrigiert wurde.

Dir hat dieser Beitrag besonders gut gefallen, dir ist ein Fehler aufgefallen oder du hast Hinweise für uns - sag uns deine Meinung unter feedback@wienerzeitung.at. Willst du uns helfen, unser gesamtes Produkt besser zu machen? Dann melde dich hier an.


Infos und Quellen

Daten und Fakten

  • Seit 2020 wird KI im US-Justiz- und Strafvollzug verstärkt eingesetzt. Hauptregionen sind die USA, zunehmend auch China. In Europa ist der Einsatz stark eingeschränkt durch EU-Regulierung, Datenschutz und Grundrechte.
  • Anwendungsbereiche:
  • Predictive Policing: Prognose von Kriminalitäts-Hotspots und Risikopersonen
  • In mehreren US-Städten seit 2020 wieder verboten oder eingestellt (u. a. Santa Cruz, Los Angeles, Chicago)
  • Gesichtserkennung:
  • Einsatz bei Polizei, FBI und Homeland Security
  • Nachweislich höhere Fehlerraten bei People of Color
  • Bis Ende 2024: 15 US-Bundesstaaten mit Einschränkungen oder Auflagen
  • Risikobewertung vor Gericht:
  • KI-Tools wie COMPAS oder PSA unterstützen Entscheidungen zu Haft, Bewährung und Strafmaß
  • Studien zeigen systematische Verzerrungen und fehlende Transparenz
  • Gefängnisüberwachung:
  • KI-Analyse von Telefonaten, Videoüberwachung und Bewegungsmustern
  • Erkennung von Gewalt, Drogenhandel, Suizidgefahr
  • Teilweise Auswertung von hunderttausenden Gesprächsminuten pro Tag
  • Gesundheitsüberwachung:
  • Einsatz von Wearables zur Messung von Puls, Bewegung und Stress
  • Ziel: Vermeidung von Suiziden, Aufständen, Drogentoten und medizinischen Notfällen
  • Robotik:
  • Erste Tests mit Sicherheitsrobotern und autonomen Systemen
  • Einsatz für Patrouillen, Essens- und Medikamentenausgabe geplant
  • Die Trefferquoten liegen teilweise nur unter 1 Prozent bei Predictive-Policing-Vorhersagen. Darüber hinaus gibt es Fehlklassifizierungen, das bedeutet, tausende falsch eingestufte Häftlinge (z. B. im Bundesprogramm PATTERN). Auch eine Verstärkung bestehender sozialer und rassistischer Ungleichheiten kommt hinzu.

Gesprächspartner

Manuel Wolfsteiner, KI-Experte, Berater und Coach

Ein Portrait von dem KI-Experte Manuel Wolfsteiner.
© Bildquelle: Privat.

Quellen

Das Thema in anderen Medien

Ähnliche Inhalte