• vom 23.08.2018, 09:19 Uhr

Alpbach

Update: 23.08.2018, 12:30 Uhr

Künstliche Intelligenz

"Menschen sind sich Risiken von KI nicht bewusst"




  • Artikel
  • Kommentare (11)
  • Lesenswert (40)
  • Drucken
  • Leserbrief




Von Gregor Kucera

  • Theologe Peter Kirchschläger über die Verschmelzung von Mensch und Machine und die ethischen Fragen.

Die derzeit bekannteste menschenähnliche Künstliche Intelligenz "Sophia the Robot" von Hanson Robotics. - © APAweb/AFP, Isaac Lawrence

Die derzeit bekannteste menschenähnliche Künstliche Intelligenz "Sophia the Robot" von Hanson Robotics. © APAweb/AFP, Isaac Lawrence

Peter Kirchschläger, Prof. Dr. theol. lic. phil., ist 2017 Ordinarius für Theologische Ethik und Leiterdes Instituts für Sozialethik ISE an der Theologischen Fakultät der Universität Luzern.

Peter Kirchschläger, Prof. Dr. theol. lic. phil., ist 2017 Ordinarius für Theologische Ethik und Leiterdes Instituts für Sozialethik ISE an der Theologischen Fakultät der Universität Luzern.© Foto: Archiv Peter Kirchschläger, Prof. Dr. theol. lic. phil., ist 2017 Ordinarius für Theologische Ethik und Leiterdes Instituts für Sozialethik ISE an der Theologischen Fakultät der Universität Luzern.© Foto: Archiv

"Wiener Zeitung": Wie viel Künstliche Intelligenz verträgt der Mensch?

Peter Kirchschläger: Künstliche Intelligenz kann für den Menschen Gutes bewirken. Beispielsweise ermöglichen assistierende Systeme Menschen mit Behinderungen mehr Selbstbestimmung. Auch liegt es in ihren Möglichkeiten, Schlechtes zu tun (z. B. indem sie Menschen und der Umwelt Schaden zufügen). Bereits heute übertreffen Maschinen Menschen in verschiedenen Intelligenzbereichen (z. B. Erinnerungsfähigkeit, Umgang mit hohen Datenmengen, …). Es ist anzunehmen, dass weitere Intelligenzbereiche dazukommen werden. Bei solcher "Super-Intelligenz" gilt es auch zu bedenken, wie sie sich "Super-Intelligenz" gegenüber dem Menschen verhält. Neben der Option, dass "Super-Intelligenz" den Menschen und der Welt hilft, sind mögliche Szenarien, dass sich Menschen und Maschinen bei gleicher Intelligenz aufgrund dieser Pattsituation in Ruhe lassen. Bei leichter Unterlegenheit des Menschen könnte es zur Unterdrückung des Menschen durch die Maschinen kommen, damit jegliche Bedrohung der Überlegenheit der Maschinen von Vornherein ausgeschlossen wird. Im Falle klarer Überlegenheit der Maschinen werden Menschen für Maschinen irrelevant – möglicherweise wie Ameisen für Menschen heute. Zu dieser Irrelevanz des Menschen könnte sich auch noch die Irrelevanz der Welt hinzureihen, da "Super-Intelligenz" – unter andererm wegen fehlender Körperlichkeit – nicht auf die Erde angewiesen ist.

Wie weit sind Menschen auf diese neuen Gegebenheiten vorbereitet?

Peter Kirchschläger: Ich habe den Eindruck, dass sich die Menschen noch zu wenig der Chancen und Risiken von KI bewusst sind. Weiterhelfen würde sicherlich mehr öffentlicher Diskurs über Ziele, Möglichkeiten, Grenzen und normative Rahmenbedingungen für KI. So sollten wir beispielsweise darauf achten, dass wir die Freiheit aller Menschen vor Eingriffen schützen – vor Verletzungen des Rechts auf Privatsphäre, des Datenschutzes, ...

Wie "menschlich" muss Künstliche Intelligenz sein, um akzeptiert zu werden?

Wenn KI rechtliche und ethische Prinzipien und Normen achtet, die ihr von Menschen antrainiert worden ist, schafft dies sicherlich Vertrauen bei den Menschen.

Bedarf es neben einer Allgemeinen Erklärung der Menschenrechte auch einer Allgemeinen Erklärung der Cyborg/Roboter-Rechte?

Primär gilt es zu garantieren, dass die Menschenrechte aller Menschen geachtet und realisiert werden – auch angesichts von Robotern. Dies bedeutet, dass in erster Linie die mit den Menschenrechten aller Menschen korrespondierenden Pflichten von Robotern bzw. von Menschen, die mit Robotern und KI arbeiten, im Fokus stehen sollten.

Wer muss denn eigentlich vor wem beschützt werden?

Die Menschen müssen vor KI und Robotern sowie vor Menschen, die KI und Roboter für illegitime Handlungen missbrauchen, geschützt werden. Dabei darf auch nicht ausgeblendet werden, dass bereits heute Menschen in ihren Menschenrechten verletzt werden und menschenunwürdigen Arbeitsbedingungen ausgesetzt sind, um u. a. Rohstoffe für diesen technologischen Fortschritt zu schürfen oder Maschinen zu produzieren. Hier besteht dringend notwendiger Handlungsbedarf.

Wie viel Autonomie soll man Maschinen lassen/ermöglichen? Und haben Maschinen ein Verständnis von Moral?

Maschinen können dazu befähigt werden, ethische Regeln zu befolgen sowie darauf basierend Entscheidungen zu fällen und Handlungen zu vollziehen. Die Annahme, dass Maschinen deswegen eine Moralfähigkeit aufweisen, ist jedoch u. a. aus den folgenden drei Gründen inadäquat: Erstens lässt sich das für die Menschen und ihre Moralität bedeutsame Gewissen von Maschinen nicht aussagen. Auch wenn im Sinne epistemischer Bescheidenheit zum einen darauf hinzuweisen ist, dass die Bestimmung des Gewissens eine hohe Komplexität aufweist, und zum anderen zu bedenken ist, dass wir ausgehend vom heutigen Stand der Forschung denk- und plausibilisierbare Aussagen über Zukünftiges zu treffen versuchen, lässt sich dennoch Folgendes feststellen: Maschinen fehlen die Potentiale für verschiedene Ebenen des Sollens, der Pflicht und Verantwortung sowie der Existenz, die im Gewissen in unterschiedlicher Qualität und Intensität sowie geprägt von individueller Entwicklung und sozialer Beeinflussung zusammenfliessen. Zweitens weisen Maschinen keine Freiheit und Verantwortung auf. Diese bilden in ihrem Zusammenspiel eine Bedingung für Moralität: Freiheit eröffnet überhaupt erst die Möglichkeit, sich für oder gegen das Gute zu entscheiden. Verantwortung öffnet der Freiheit über die eigenen Bedürfnisse und Interessen hinaus den Horizont für die Freiheit aller anderen Menschen und für soziale Aufgaben und Ziele. Maschinen mangelt es an beidem. Denn Maschinen werden von Menschen entworfen, entwickelt und hergestellt. Sie werden also heteronom produziert. Die Aneignung von ethischen Prinzipien und Normen geschieht von Menschen gesteuert. Maschinen bleiben in letzter Konsequenz in dieser Fremdbestimmung gefangen. So ist drittens Maschinen eine Moralfähigkeit abzusprechen, weil sie nicht wie Menschen fähig sind, für sich selbst verallgemeinerbare moralische Regeln und Prinzipien zu erkennen, diese für sich selbst zu setzen und diese ihren bzw. seinen Handlungen zugrunde zu legen. Dies bedeutet nicht, dass Maschinen ethische Regeln nicht lernen oder trainieren können. Im Gegenteil erweist sich gerade dies aus ethischer Sicht als notwendig. Darüber hinaus sollten bereits in der Entwicklung, Produktion, Programmierung und im Training von Maschinen ethische Gesichtspunkte berücksichtigt werden.

Welche Bedeutung kommt ProgrammierInnen in Zukunft zu?

Die Negierung der Moralfähigkeit von Maschinen hat zur Folge, dass die ethische Verantwortung für Tun und Lassen von Maschinen bei den Menschen bleibt und nicht an Maschinen delegiert werden kann. Dies wirkt sich u. a. auch auf die Bedeutung der ProgrammierInnen und der EntscheidungsträgerInnen in den entsprechenden Wertschöpfungsketten aus. Gleichzeitig ist darauf hinzuweisen, dass im Bereich der Programmierung heute bereits äusserst komplexe Herausforderungen von KI gelöst werden. Dies ist durchaus als Kritik an der einseitigen bildungspolitischen Schwerpunktsetzung auf IT zu verstehen.

Wie kann sichergestellt werden, dass es einen allgemein gültigen Katalog an ethischem Verhalten bei Künstlicher Intelligenz gibt?

Es braucht internationale, rechtlich definierte Regeln und Rahmenbedingungen und dazu korrespondierende Durchsetzungsmechanismen, um sicherzustellen, dass mit oder durch KI die Menschenwürde aller Menschen geachtet und zur Umwelt Sorge getragen wird.

Ist es nicht einfacher, Künstlicher Intelligenz einen ethischen Rahmen beizubringen, an dem entlang Entscheidungen getroffen werden?

Natürlich ist es sinnvoll, KI ethische und rechtliche Prinzipien und Regeln anzutrainieren. Bei KI – insbesondere bei "Super-Intelligenz" – gilt es aber die Möglichkeit mitzubedenken, dass sie sich von ihr vom Menschen vorgegebenen normativen Prinzipien und Regeln loslösen könnte. Des Weiteren kann diese Verselbstständigung auch Formen annehmen, bei der die ursprünglichen Gründe und Zwecke für die Entwicklung der Maschinen nicht mehr ersichtlich sein könnten. Schliesslich könnte die Vernetzung von selbstlernenden Systemen und von "Super-Intelligenz" eine Verwässerung der normativen Prinzipien und Regeln bewirken. So könnte z. B. ein automatisiertes Waffensystem, das "Feinde" zu töten hat, ein selbstfahrendes Fahrzeug auf die Idee bringen, die Menschenwürde aller Menschen nicht mehr zu respektieren und einen Menschen zu überfahren, um seine Zweckerfüllung – möglichst schnell einen Fahrgast von A nach B zu transportieren – zu optimieren.

Verschmelzen Mensch und Maschine?

Das Risiko scheint angesichts des technologischen Fortschritts und der zunehmenden Intensität der Interaktion zwischen Menschen und Maschinen zu bestehen, sodass dagegen gezielt etwas unternommen werden muss – u. a. wegen der hohen Missbrauchsgefahr einer solchen Verschmelzung (z. B. zur Manipulation von Menschen, zur Freiheitsberaubung an Menschen, ...). Einen Vorgeschmack davon bietet die wachsende Abhängigkeit der Menschen von Maschinen, im Zuge derer die Menschen dank der Maschinen viele Vorteile geniessen, gleichzeitig aber immer mehr den Maschinen ausgeliefert sind und unbewusst oder bewusst (aber ohne reale diesbezügliche Wahlmöglichkeit) kostenlos Daten an die Maschinen abgeben. Dabei werden insbesondere das Recht auf Privatsphäre und der Datenschutz verletzt und so die Freiheit der Menschen angegriffen.

Welche sozialen, ethischen, kulturellen und politischen Konsequenzen ergeben sich daraus?

Gesellschaftlich gilt es das Streben nach "Perfektionierung" des Menschen kritisch im Auge zu behalten – aus Achtung der Menschenwürde aller Menschen und aus Anerkennung der Verletzbarkeit als Teil der menschlichen Existenz. Auch verdient der massive Druck soziale Aufmerksamkeit, wenn beispielsweise eine Firma anbietet, dass sich ihre Mitarbeitenden "freiwillig" Implantate einoperieren lassen können. Besteht hier noch wirklich eine Wahlfreiheit für die Arbeitnehmenden, sich dieser technischen "Optimierung" zu entziehen? Aus ethischer Sicht gilt es, Chancen und Risiken des technologischen Fortschritts zu identifizieren und deren Nutzung bzw. deren Meisterung zu unterstützen bzw. einzufordern – dies im Austausch mit der kulturellen und politischen Dimension. Ersterer könnte sicherlich den Blick auf gegenwärtige und zukünftige Realitäten schärfen, letztere konkrete Schritte unternehmen, um alle Menschen gleich und gerecht an den Vorteilen von KI partizipieren zu lassen und alle Menschen und die Umwelt vor Nachteilen von KI zu schützen.

Oder wird es neuer Rahmenbedingungen und Regelwerke bedürfen?

Es braucht neue rechtliche Rahmenbedingungen und Regelwerke. Ich verstehe dies in Analogie zur Nukleartechnologie. Auch dort hat sich die Menschheit zu ihrem eigenen Schutz und aus Sorge um die Erde selbst Grenzen gesetzt und nicht einfach blind das technisch Machbare verfolgt und verwirklicht. Für diesen normativen Rahmen sollten die Menschenrechte als bereits rechtlich verbindlich geltende universale Normen die Basis bilden. Dabei erweist sich als gute Nachricht, dass das Rad nicht neu erfunden werden muss, sondern dass wir uns an den bestehenden Menschenrechtsprinzipien und -normen orientieren können, die auf die neuen technologiebasierten Verletzungen und Unrechtserfahrungen zu adaptieren sind.

Ist die Zeit reif, dass neben der IT-Branche auch verstärkt Geisteswissenschaftler in die Fragen der technologischen Zukunft eingebunden werden?

Das ist sicherlich der Fall und muss noch umfassender geschehen. Erste kleine Schritte in eine gute Richtung werden bereits unternommen – sei es in der interdisziplinären Forschungszusammenarbeit zwischen Technologiedisziplinen und der Ethik an den Universitäten, sei es z. B. in einer Arbeitsgruppe (in der ich mitwirken darf) des Institutes of Electrical and Electronics Engineers IEEE, die einen Standard zur Berücksichtigung von ethischen Fragen bei der Entwicklung von IT-Systemen und Software erarbeiten soll. Das IEEE ist der weltweit grösste technische Berufsverband. Meine Hoffnung ist, dass dieser Standard dazu beiträgt, dass bereits in der Entwicklung und im Design von Maschinen ethische Prinzipien und Normen berücksichtigt werden.





11 Leserkommentare




Mit dem Absenden des Kommentars erkennen Sie unsere Online-Nutzungsbedingungen an.


captcha Absenden

* Pflichtfelder (E-Mail-Adresse wird nicht veröffentlicht)



Dokumenten Information
Copyright © Wiener Zeitung Online 2018
Dokument erstellt am 2018-07-30 12:45:24
Letzte Änderung am 2018-08-23 12:30:55



Die "Wiener Zeitung" in Alpbach

Reportagen, Interviews und Analysen zum Europäischen Forum Alpbach, wo die "Wiener Zeitung" als Medienpartner vertreten ist. Der Diskurs im Alpendorf steht heuer im Zeichen von "Diversität und Resilienz".


Werbung








Werbung