Peter Kirchschläger, Prof. Dr. theol. lic. phil., ist 2017 Ordinarius für Theologische Ethik und Leiterdes Instituts für Sozialethik ISE an der Theologischen Fakultät der Universität Luzern. - © Foto: Archiv
Peter Kirchschläger, Prof. Dr. theol. lic. phil., ist 2017 Ordinarius für Theologische Ethik und Leiterdes Instituts für Sozialethik ISE an der Theologischen Fakultät der Universität Luzern. - © Foto: Archiv

"Wiener Zeitung": Wie viel Künstliche Intelligenz verträgt der Mensch?

Peter Kirchschläger: Künstliche Intelligenz kann für den Menschen Gutes bewirken. Beispielsweise ermöglichen assistierende Systeme Menschen mit Behinderungen mehr Selbstbestimmung. Auch liegt es in ihren Möglichkeiten, Schlechtes zu tun (z. B. indem sie Menschen und der Umwelt Schaden zufügen). Bereits heute übertreffen Maschinen Menschen in verschiedenen Intelligenzbereichen (z. B. Erinnerungsfähigkeit, Umgang mit hohen Datenmengen, …). Es ist anzunehmen, dass weitere Intelligenzbereiche dazukommen werden. Bei solcher "Super-Intelligenz" gilt es auch zu bedenken, wie sie sich "Super-Intelligenz" gegenüber dem Menschen verhält. Neben der Option, dass "Super-Intelligenz" den Menschen und der Welt hilft, sind mögliche Szenarien, dass sich Menschen und Maschinen bei gleicher Intelligenz aufgrund dieser Pattsituation in Ruhe lassen. Bei leichter Unterlegenheit des Menschen könnte es zur Unterdrückung des Menschen durch die Maschinen kommen, damit jegliche Bedrohung der Überlegenheit der Maschinen von Vornherein ausgeschlossen wird. Im Falle klarer Überlegenheit der Maschinen werden Menschen für Maschinen irrelevant – möglicherweise wie Ameisen für Menschen heute. Zu dieser Irrelevanz des Menschen könnte sich auch noch die Irrelevanz der Welt hinzureihen, da "Super-Intelligenz" – unter andererm wegen fehlender Körperlichkeit – nicht auf die Erde angewiesen ist.

Wie weit sind Menschen auf diese neuen Gegebenheiten vorbereitet?

Peter Kirchschläger: Ich habe den Eindruck, dass sich die Menschen noch zu wenig der Chancen und Risiken von KI bewusst sind. Weiterhelfen würde sicherlich mehr öffentlicher Diskurs über Ziele, Möglichkeiten, Grenzen und normative Rahmenbedingungen für KI. So sollten wir beispielsweise darauf achten, dass wir die Freiheit aller Menschen vor Eingriffen schützen – vor Verletzungen des Rechts auf Privatsphäre, des Datenschutzes, ...

Wie "menschlich" muss Künstliche Intelligenz sein, um akzeptiert zu werden?

Wenn KI rechtliche und ethische Prinzipien und Normen achtet, die ihr von Menschen antrainiert worden ist, schafft dies sicherlich Vertrauen bei den Menschen.