Wie transparent muss Technologie sein?
Hinweis: Der Inhalt dieser Seite wurde vor 1 Jahr in der Wiener Zeitung veröffentlicht. Hier geht's zu unseren neuen Inhalten.
Bei wichtigen Entscheidungen ist eine zweite Meinung oft hilfreich. Doch was, wenn sie von einer Künstlichen Intelligenz (KI) statt von einem Menschen stammt? Können wir Maschinen vertrauen? Bei einer KI-basierten Produktempfehlung im Online-Shop eines Händlers mag das noch egal sein. Versicherungen oder Banken hingegen sollten Erklärungen liefern, wenn ein Algorithmus eine Leistung verweigert oder einen Kreditantrag ablehnt. Ebenso Unternehmen, die aufgrund einer KI-Vorauswahl Bewerbende aussortieren. Wenn es um Gleichbehandlung oder, ganz allgemein, um ethische Fragen geht, dürfen wir uns nicht hinter Computerentscheidungen verstecken. Vielmehr brauchen Algorithmen Ziele und Grenzen, die Menschen nachvollziehbar und transparent definieren - sonst droht ein Vertrauensverlust auf Seiten der Verbraucherinnen und Verbraucher.
Nun mögen die Zeiten, in denen KI zur Wunderwaffe verklärt oder zur Gefahr für den Menschen aufgebauscht wurde, vorbei sein. Realismus und Sachlichkeit statt Technikangst bestimmen heute in aller Regel die Debatte rund um die Technologie. Laut der jüngsten KI-Studie von adesso haben auch Unternehmensverantwortliche diesen Eindruck: 61 Prozent sind überzeugt, dass Verbraucherinnen und Verbraucher KI als vertrauenswürdig einstufen.
Dieses grundlegende Vertrauen darf aber nicht durch - bewusst oder unbewusst - eigenmächtig handelnde Algorithmen verspielt werden. 80 Prozent der Entscheiderinnen und Entscheider finden, dass KI-Anwendungen nicht ohne menschliche Kontrolle eingesetzt werden dürfen. 54 Prozent sind zudem der Meinung, dass KI-Technologien stärker reguliert werden müssen, um Manipulationen jeder Art zu verhindern.
Unternehmen tun deshalb gut daran, eine "Explainable AI" zu schaffen. Diese speziellen Anwendungen öffnen die Black Box, indem sie transparent arbeiten und Erklärungen für eine getroffene Entscheidung liefern. Das reicht von der Herkunft und Charakteristika der Trainingsdaten über die Durchschaubarkeit und Verständlichkeit des Algorithmus bis hin zum Einhalten ethischer Grundwerte.
In die gleiche Richtung geht aktuell die Diskussion auf Seiten des Gesetzgebers. Mit dem "Artificial Intelligence Act" der EU steht eine Verordnung vor der Tür, die - sobald in nationale Gesetze gegossen - weitreichende Folgen haben wird. Die EU will damit ein Rahmenwerk schaffen, das die Entscheidungen von KI-Anwendungen kategorisiert und den Einsatz gegebenenfalls stärker kontrolliert. Dies soll negative Auswirkungen auf die Sicherheit, Gesundheit und Grundrechte von Menschen verhindern. Ähnlich wie bei der Datenschutz-Grundverordnung (DSGVO) wird das geplante Gesetzeswerk vermutlich sogar über die Grenzen der EU hinaus Wirkung zeigen. Denn alle Anbieter, die innerhalb des europäischen Wirtschaftsraums KI-basierte Produkte und Dienste verkaufen wollen, müssen sich an den "Artificial Intelligence Act" halten, der zudem ähnlich drastische Strafen vorsieht: Der Entwurf sieht bei einer Verletzung der Vorgaben ein Bußgeld von bis zu 30 Millionen Euro oder 6 Prozent des weltweiten Jahresumsatzes vor. Die Erfahrungen mit der DSVGO zeigen: Die zuständigen Behörden sind keine zahnlosen Tiger. Sie ahnden Verstöße konsequent.
Zwar sind einige Punkte rund um die Umsetzung des "Artificial Intelligence Act" bisher noch nicht geklärt. Für Unternehmen gilt es trotzdem jetzt schon, die Weichen zu stellen und das Risiko ihrer KI-Systeme zu bewerten. Es wäre zu einfach, sich angesichts der Wahrscheinlichkeit, dass das Gesetz nicht vor 2024 in Kraft treten wird, entspannt zurückzulehnen. Wer das tut, läuft Gefahr, später unter Zeitdruck zu geraten. Zudem haben Verbraucherinnen und Verbraucher schon heute ein Recht auf eine "Explainable AI" - Gesetze hin oder her.