)
Im EU-Parlament wird die Position für das weltweit erste Regelwerk für Künstliche Intelligenz beschlossen.
Hinweis: Der Inhalt dieser Seite wurde vor 1 Jahr in der Wiener Zeitung veröffentlicht. Hier geht's zu unseren neuen Inhalten.
Ob Anwendungen wie ChatGPT in den regulatorischen Hochrisikobereich fallen würden, wird SPÖ-Delegationsleiter Andreas Schieder am Dienstag in Straßburg gefragt. "Im letzten halben Jahr hat das wohl jeder einmal ausprobiert, also kann man ruhig sagen: Das ist keinesfalls Hochrisiko", so der EU-Abgeordnete. Viel kritischer sei die Lage bei Desinformationskampagnen, alles gehe schneller und technisch täuschender als noch vor kurzer Zeit. Doch genau darin liegt die Herausforderung: Was heute noch belächelt wird, kann schon morgen eine massive gesellschaftliche - oder politische - Veränderung mit sich bringen.
Am Mittwoch stimmt das EU-Parlament über das weltweit erste Regelwerk zur Eindämmung der Risiken von künstlicher Intelligenz (KI) und zur Förderung ihrer ethischen Nutzung ab - die erarbeitete Parlamentsposition wird mit höchster Wahrscheinlichkeit angenommen werden. Die Regeln folgen einem risikobasierten Ansatz und legen Verpflichtungen für Anbietende und Nutzende fest, die sich nach dem Grad des Risikos richten, das die KI erzeugen kann. KI-Systeme mit inakzeptablen Risikostufen können in der Folge tatsächlich verboten werden. Das betrifft etwa biometrische Fernidentifizierungssysteme, Kategorisierungssysteme, die sensible Merkmale verwenden, vorausschauende Polizeiarbeit und Systeme zur Erkennung von Emotionen.
Negative Anwendungsbeispiele dafür liefert China, wie der Grünen-Abgeordnete Thomas Waitz sagt: "Da geht es um Social Profiling, wo das Sozialverhalten der Menschen verfolgt wird - und wenn man da nicht genug Punkte bekommt, kann man kein Zugticket für den Hochgeschwindigkeitszug kaufen." Oder die KI wertet menschliches Verhalten am Grenzübergang aus, etwa, um Schmuggler zu entlarven.
Für generative KI, also eben ChatGPT, schlagen die Parlamentarier maßgeschneiderte Regeln vor, einschließlich der Kennzeichnung von KI-generierten Inhalten und der Veröffentlichung von Zusammenfassungen urheberrechtlich geschützter Daten, die für das Training der Software verwendet werden.
Gleichzeitig soll aber auch die Entwicklung der Programme nicht behindert werden. Um die KI-Innovation anzukurbeln, soll es Ausnahmeregelungen für Forschungstätigkeiten und quelloffene KI-Komponenten sowie die Nutzung sogenannter KI-Reallabore ("regulatory sandboxes") oder kontrollierter Umgebungen geben, die von öffentlichen Behörden geschaffen werden, um KI vor ihrem Einsatz zu testen. Auch die Bürgerrechte sollen gestärkt werden, das Beschwerde- und Informationsrecht soll es jedem ermöglichen, auf Missbrauch oder illegale KI-Nutzung hinzuweisen und Informationen zu bekommen, wenn es die eigene Person betrifft. Beispiel aus dem Alltag: Kommt KI am Arbeitsplatz zum Einsatz, muss die Arbeitnehmervertretung mit an Bord sein.
Zahlreiche Verbote enthalten
Amnesty International forderte die Abgeordneten auf, Massenüberwachungstechnologien in dem Gesetz überhaupt zu verbieten: Invasive Gesichtserkennungstechnologien würden rassistische und diskriminierende Strafverfolgungsmaßnahmen gegen Minderheiten verstärken. Im aktuellen Vorschlag sind nun tatsächlich zahlreiche Verbote enthalten, etwa biometrische Erkennungssysteme in Echtzeit in öffentlich zugänglichen Räumen, Systeme zur Erkennung von Emotionen bei der Strafverfolgung, beim Grenzschutz, am Arbeitsplatz und in Bildungseinrichtungen, biometrische Kategorisierungssysteme, die sensible Merkmale verwenden (zum Beispiel Geschlecht, ethnische Zugehörigkeit, Staatsangehörigkeit, Religion, politische Orientierung) oder wahlloses Auslesen biometrischer Daten aus sozialen Medien oder Videoüberwachungsaufnahmen zur Erstellung von Gesichtserkennungsdatenbanken (Verletzung der Menschenrechte und des Rechts auf Privatsphäre).
Der "AI-Act" sei eine echte Chance, Regelungen einzuführen, noch bevor eine Technologie alles durchdringt, die potenziell tiefgreifende Änderungen bringt - man könne hier "vor die Welle kommen", sagte Matthias Kettemann von der Universität Innsbruck vor wenigen Tagen vor Journalisten. Für "Angstmacherei" im Sinne einer schleichenden Quasi-Abschaffung der Menschheit gebe es keinen Anlass, Regulationen brauche es aber auf jeden Fall.
Für die an der Universität Oxford (Großbritannien) tätige österreichische Technologie- und Regulierungsforscherin Sandra Wachter schreibt man in Europa mit dieser Regulierung gerade Geschichte. Problematisch sei allerdings, dass nach dem Prinzip des "Conformity assessment" eigentlich die Systemhersteller im Hochrisiko-Bereich selbst einschätzen müssten, ob ihr Produkt den Regeln und Standards entspricht. Einzig wenn biometrische Daten verwendet werden, braucht es dazu einen Dritten. Hier seien also "diejenigen, die dem Recht folgen sollen", auch die, die darüber entscheiden, ob sie das denn tun, so die Wissenschaftlerin. Das sehe auch der "AI-Act" selbst als problematisch an, warum auf diese Übergangslösung eine neue folgen soll. Für die EU-Abgeordnete Claudia Gamon (Neos) ist die Regelung jedenfalls "ein großer Erfolg", es werde "Rechtssicherheit ohne Überregulierung" geschaffen.
Die EU, so drückt es Lukas Mandl (ÖVP) aus, habe bisher oft den Fehler gemacht, Risiken zwar auszuschließen, aber im selben Atemzug die Chancen nicht zu nutzen. Das sei diesmal nicht der Fall. Mandl erinnerte daran, dass Österreich wesentliche Aspekte des Pakets, das heute wohl mit großer Mehrheit beschlossen wird und bis 2025 Realität sein soll, schon 2024 umsetzen will, es gebe hier keine Zeit zu verlieren. Und tatsächlich sollen auch die Trilogverhandlungen mit dem Rat und der Kommission schon am Mittwochabend beginnen.