Zum Hauptinhalt springen

Aus dem Gesicht geschnitten

Von Florian Richter

Politik
Personen mit weißer Hautfarbe können von der Software leichter erfasst werden als jene mit dunklen Hauttypen.
© getty images/imaginima

Automatisierter Rassismus und Pseudowissenschaft im 21. Jahrhundert? Kritiker warnen, dass uns die Gesichtserkennung zurück in die Vergangenheit katapultieren könnte.


Hinweis: Der Inhalt dieser Seite wurde vor 5 Jahren in der Wiener Zeitung veröffentlicht. Hier geht's zu unseren neuen Inhalten.

Wien. Er ist 14 Jahre alt, schwarz und trägt eine Schuluniform. Aus dem Nichts umzingeln ihn vier Polizisten. Sie drücken ihn gegen eine Wand, nehmen seine Fingerabdrücke und konfiszieren sein Handy. Der Bub wirkt verstört und ängstlich. Was die Beamten zu diesem Zeitpunkt noch nicht wissen: Sie haben den Falschen. Fälschlicherweise von einer Gesichtserkennungssoftware identifiziert, wurde der Schüler zum Ziel der britischen Behörden und zum Opfer der jüngsten Entwicklung im Bereich der automatisierten Überwachung. Ein Einzelfall?

Geht es nach den Kritikern der neuen Technologie, vermutlich nicht. Denn Sicherheitsbehörden in westlichen Staaten, allen voran in den USA und in Großbritannien, setzen vermehrt auf diese Art der Identitätsfeststellung. Und das trotz bereits bekannter Mängel. So berichtete der "Guardian", dass etwa die Hälfte aller Amerikaner sich schon in einer landesweiten zum Abgleich verwendeten Gesichtsdatenbank der Sicherheitsbehörden befindet, während die Technologie auf den britischen Inseln im südlichen Teil von Wales, Leicestershire und London großflächig getestet wird. Aber auch andere Staaten finden an der Gesichtserkennung gefallen: So wurde in Deutschland voriges Jahr ein Pilotprojekt am Berliner Bahnhof gestartet, während das Bundeskriminalamt in Österreich erste Testläufe im Dezember geplant hat.

Warum man zu diesen Programmen greift, ist einfach erklärt: So sind Videoaufnahmen, die mit einer Gesichtserkennungssoftware ausgestattet sind, äußerst hilfreich, um eine Tat aufzuklären und einen Verdächtigen zu überführen. Und dass die Technologie der Gesichtserkennung im großen Stil funktioniert, beweisen China und andere autoritäre Staaten. Wie aus einem Bericht der "New York Times" hervorging, nutzte die chinesische Regierung Gesichtserkennungssysteme, um die vorrangig im Nordwesten lebende muslimische Minderheit der Uiguren in Echtzeit zu identifizieren und zu verfolgen. Insgesamt seien dabei innerhalb eines Monats 500.000 von ihnen aufgezeichnet und kontrolliert worden.

Microsoft, Amazon und IBM

Im Westen werden solche Gesichtserkennungssysteme unter anderem von Microsoft, Amazon und IBM entwickelt und vertrieben, aber auch Start-ups spielen eine immer größere Rolle in dem kontinuierlich wachsenden Markt. Die Programme, die von Behörden ebenso wie von Supermärkten gekauft werden, funktionieren anhand eines Algorithmus, der das Gesicht einer zu identifizierenden Person mit einer umfangreichen Datenbank von gespeicherten Bildaufnahmen vergleicht.

Die Fotos in den Datenbanken stammen dabei zu einem überwiegenden Teil aus dem Internet. Unternehmen wie IBM bedienen sich ohne explizite Einwilligung etwaiger Inhaber direkt auf den verschiedensten Social-Media-Plattformen oder kaufen von Zwischenhändlern umfangreiche Datensätze mit zehntausenden Fotos. Doch es müssen nicht immer Fotos von noch lebenden Menschen sein. Um den Systemen das Lernen zu ermöglichen, experimentieren US-Behörden auch mit Fotos von verstorbenen Personen.

Verwechslungsgefahr

Allerdings erweist sich die Technologie nach wie vor als fehleranfällig. So belegen mehrere voneinander unabhängig durchgeführte Studien, dass sich die Algorithmen von Amazon, Microsoft und IBM weitaus öfter irren als bisher vermutet. "Rekognition", Amazons Gesichtserkennungssoftware, verwechselte in einem von der Bürgerrechtsunion ACLU durchgeführten Test 28 US-Kongressabgeordnete mit Verbrechern. Besonders auffallend: Obwohl nur 20 Prozent der Abgeordneten dunkelhäutig sind, machten diese 40 Prozent der falschen Übereinstimmungen aus.

Amazon bezeichnete diese Ergebnisse als "irreführend" und verwies darauf, dass es in Zusammenhang mit der eigenen Software bisher keinerlei Berichte von Missbrauchsvorfällen seitens der Exekutive gebe. Experten zufolge kämpfen allerdings alle Gesichtserkennungsprogramme mit quasi inhärenten Problemen, die dazu führen, dass sich Algorithmen mit dunklen Hauttypen schwerer tun als mit weißen. Eine Alternative, die diese Probleme beseitigt, wurde bis dato noch nicht entwickelt. Somit stellt die Pigmentierung der Haut den Hauptgrund dar, warum so viele nicht-weiße Menschen falsch identifiziert werden. Befürworter der Technologie meinen, dass mit einer größeren Anzahl von Bildern lösen zu können. Eine Studie der Universität Georgetown aus dem Jahr 2016 widerlegt diesen Ansatz jedoch: Selbst wenn Schwarze in einer Datenbank überrepräsentiert sind, sei die Fehlerquote weitaus höher als bei Weißen.

In den USA sind daher vor allem Bürgerrechtsgruppen und demokratische Politiker alarmiert. "Wir haben eine Technologie, die von einer Bevölkerungsgruppe entwickelt wurde, die nur für diese Bevölkerungsgruppe funktioniert, und die versucht, sie zu verkaufen und sie dem gesamten Land aufzuzwingen", sagte die demokratische Abgeordnete Alexandria Ocasio-Cortez nach einer Kongressanhörung zu dem Thema. "Wenn diese fehlerhaften Algorithmen an die Strafverfolgungsbehörden verkauft werden, kann das für jeden, der nicht wie die meisten Silicon-Valley-Ingenieure aussieht, katastrophal sein."

Aus diesen Gründen haben sich bereits vier Städte in den USA, San Francisco, Oakland, Cambridge und Somerville, dazu entschlossen, den Einsatz von Gesichtserkennungstechnologien im öffentlichen Sektor vorerst zu verbieten. Weder die städtische Polizei noch andere Behörden dürfen demnach eine derartige Software erwerben, besitzen oder nutzen. Ausgenommen sind nur Flughäfen und von den Bundesbehörden betriebene Einrichtungen. Wegweisend war dabei die Entscheidung des Stadtrats von San Francisco, der als Erster diesen Schritt setzte und dabei eine nationale Debatte entfachte. Denn nach Meinung der Kommunalpolitiker müsste gerade hier, am wichtigsten Standort für die digitale Revolution, sorgfältig mit einer Technologie umgegangen werden, deren Gefahren die Vorteile bei Weitem überwiegen. Schließlich könnte Gesichtserkennungssoftware nicht nur dazu führen, die rassistische Ungerechtigkeit zu verstärken, sondern auch die Möglichkeit bedrohen, "frei von ständiger Beobachtung durch die Regierung zu leben".

"Gefährlich" wirkende Personen

Die reine Identifizierung von Personen ist aber längst nicht alles, an was die Entwickler forschen. So sollen auch Emotionserkennung und Charaktereinstufungen anhand von Gesichtszügen möglich sein. Amazon, Microsoft, IBM, auch chinesische Unternehmen wie Face++ verkaufen bereits derartige Programme: So halten automatische Überwachungssysteme nach "gefährlich" wirkenden Personen Ausschau, während sie Aufmerksamkeitsspannen von Schülern beäugen, Stellenbewerber bewerten und die Reaktionen von Kunden für die Marktforschung bestimmt werden. Auch im Gesundheitsbereich kommen solche Emotionserkennungstechnologien zum Einsatz.

Laut einer Einschätzung des New Yorker AI Now Instituts ist es allerdings höchst fragwürdig, "dass KI-Systeme in der Lage sein könnten, uns zu sagen, was ein Student, ein Kunde oder ein Tatverdächtiger wirklich empfindet oder welche Art von Person sie an sich sind".

Außerdem sorgen sich die Forscher in dem Positionspapier, dass die Wissenschaft damit wieder an ihre dunkelste Zeit anschließt. So wurde in der nationalsozialistischen Rassenlehre immer wieder versucht, den Charakter eines Menschen aus seinem Äußeren abzuleiten.

Alles wiederholt sich

Diese Methode wird indes schon längst wieder angewandt: In einer sehr umstrittenen Studie aus dem Jahr 2016 zeigten die chinesischen Forscher Xiaolin Wu und Xi Zhang, dass ein von ihnen programmierter Algorithmus zwischen kriminellen und nicht-kriminellen Menschen unterscheiden kann - und zwar anhand der "Lippenkrümmung, dem Augeninneneckenabstand und der sogenannten Nasen-Mund-Winkel". Ein Jahr später entwarf Stanford-Professor Michal Kosinski einen "Schwulenradar", der zwischen homosexuellen und nicht-homosexuellen Menschen differenziere. In beiden Fällen bemängelten Kritiker die Auswahl der Fotos, mit denen die Maschinen trainiert wurden - und zeigten erneut, wie ein an sich neutraler Algorithmus voreingenommen sein kann.

Das israelische Start-up Faception geht noch einen Schritt weiter, indem es aufgrund von Gesichtsmerkmalen zwischen Kategorien wie "Terrorist" oder "Pädophiler" unterscheidet. Kunden finden sich bereits. Wie lange diese Praxis erlaubt sein wird, ist allerdings ungewiss.