Bedarf es neben einer Allgemeinen Erklärung der Menschenrechte auch einer Allgemeinen Erklärung der Cyborg/Roboter-Rechte?

Primär gilt es zu garantieren, dass die Menschenrechte aller Menschen geachtet und realisiert werden – auch angesichts von Robotern. Dies bedeutet, dass in erster Linie die mit den Menschenrechten aller Menschen korrespondierenden Pflichten von Robotern bzw. von Menschen, die mit Robotern und KI arbeiten, im Fokus stehen sollten.

Wer muss denn eigentlich vor wem beschützt werden?

Die Menschen müssen vor KI und Robotern sowie vor Menschen, die KI und Roboter für illegitime Handlungen missbrauchen, geschützt werden. Dabei darf auch nicht ausgeblendet werden, dass bereits heute Menschen in ihren Menschenrechten verletzt werden und menschenunwürdigen Arbeitsbedingungen ausgesetzt sind, um u. a. Rohstoffe für diesen technologischen Fortschritt zu schürfen oder Maschinen zu produzieren. Hier besteht dringend notwendiger Handlungsbedarf.

Wie viel Autonomie soll man Maschinen lassen/ermöglichen? Und haben Maschinen ein Verständnis von Moral?

Maschinen können dazu befähigt werden, ethische Regeln zu befolgen sowie darauf basierend Entscheidungen zu fällen und Handlungen zu vollziehen. Die Annahme, dass Maschinen deswegen eine Moralfähigkeit aufweisen, ist jedoch u. a. aus den folgenden drei Gründen inadäquat: Erstens lässt sich das für die Menschen und ihre Moralität bedeutsame Gewissen von Maschinen nicht aussagen. Auch wenn im Sinne epistemischer Bescheidenheit zum einen darauf hinzuweisen ist, dass die Bestimmung des Gewissens eine hohe Komplexität aufweist, und zum anderen zu bedenken ist, dass wir ausgehend vom heutigen Stand der Forschung denk- und plausibilisierbare Aussagen über Zukünftiges zu treffen versuchen, lässt sich dennoch Folgendes feststellen: Maschinen fehlen die Potentiale für verschiedene Ebenen des Sollens, der Pflicht und Verantwortung sowie der Existenz, die im Gewissen in unterschiedlicher Qualität und Intensität sowie geprägt von individueller Entwicklung und sozialer Beeinflussung zusammenfliessen. Zweitens weisen Maschinen keine Freiheit und Verantwortung auf. Diese bilden in ihrem Zusammenspiel eine Bedingung für Moralität: Freiheit eröffnet überhaupt erst die Möglichkeit, sich für oder gegen das Gute zu entscheiden. Verantwortung öffnet der Freiheit über die eigenen Bedürfnisse und Interessen hinaus den Horizont für die Freiheit aller anderen Menschen und für soziale Aufgaben und Ziele. Maschinen mangelt es an beidem. Denn Maschinen werden von Menschen entworfen, entwickelt und hergestellt. Sie werden also heteronom produziert. Die Aneignung von ethischen Prinzipien und Normen geschieht von Menschen gesteuert. Maschinen bleiben in letzter Konsequenz in dieser Fremdbestimmung gefangen. So ist drittens Maschinen eine Moralfähigkeit abzusprechen, weil sie nicht wie Menschen fähig sind, für sich selbst verallgemeinerbare moralische Regeln und Prinzipien zu erkennen, diese für sich selbst zu setzen und diese ihren bzw. seinen Handlungen zugrunde zu legen. Dies bedeutet nicht, dass Maschinen ethische Regeln nicht lernen oder trainieren können. Im Gegenteil erweist sich gerade dies aus ethischer Sicht als notwendig. Darüber hinaus sollten bereits in der Entwicklung, Produktion, Programmierung und im Training von Maschinen ethische Gesichtspunkte berücksichtigt werden.