Paul Mason im Gespräch mit der "Wiener Zeitung". - © Thomas Seifert
Paul Mason im Gespräch mit der "Wiener Zeitung". - © Thomas Seifert

"Wiener Zeitung": In Ihrem unlängst erschienen Buch "Klare, lichte Zukunft" schreiben Sie gleich am Anfang über den "Albtraum Gegenwart". Wenn schon die Gegenwart ein Albtraum ist, was soll erst in Zukunft aus uns und den nachfolgenden Generationen werden?

Paul Mason: Ich bin ein Techno-Optimist. Vor 200.000 Jahren haben wir Steinwerkzeuge benutzt, seit 12.000 Jahren betreiben wir Landwirtschaft, seit ungefähr 5000 Jahren leben wir in Städten. Heute bauen wir 4 Nanometer dünne Silikonplättchen, die wir mit einer Billion Transistoren ausstatten. Der technologische Fortschritt den letzten 20 bis 30 Jahre ist der größte technologische Fortschritt in der Geschichte der Menschheit. Warum sollte man also nicht optimistisch sein? Nicht die Technik ist das Problem, sondern die Tatsache, dass wir mit diesem Fortschritt nicht mehr klarkommen.

Woran hapert es?

Ich sehe große ethische Defizite. Vor allem im Bereich der Informationstechnologie. Zum Vergleich: Wenn man ein neues Medikament entwickelt, dann gibt es einen ganzen Katalog von Verhaltensregeln: Wer bekommt das Placebo? Wie lange läuft der Medikamententest? Das ist alles festgelegt. Das gibt es in der IT nicht. Ich denke aber, dass es, bevor wir ein hyperintelligentes Elektronenhirn oder einen unglaublich hoch entwickelten Roboter in Wien auf den Stephansplatz schicken, mit ein paar ethischen Verhaltensregeln nicht getan ist.

Sondern?

Wir müssen in dieses Ding eine Theorie der menschlichen Natur implantieren, bevor wir es auf die Menschheit loslassen. Der russisch-amerikanische Wissenschaftler und Science-Fiction-Autor Isaac Asimov hat in den 50er Jahren die sogenannten Robotergesetze formuliert: Ein Roboter darf keinem Menschen etwas zuleide tun. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen - es sei denn, ein solcher Befehl würde mit Regel eins kollidieren. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert. Diese Regeln müsste man erweitern: Ein Roboter muss einem Menschen klarmachen, dass er ein Roboter ist. Datensammlung ist ihm ohne die Zustimmung des oder der Betroffenen nicht erlaubt. Die für Menschen gemachten Gesetze gelten auch für Roboter oder Elektronenhirne.

Wie lautet Ihr praktischer Vorschlag für mehr Ethik in der IT?

Auf den Universitäten sollten IT-Leute mit den Grundlagen der Ethik und des Rechts vertraut gemacht werden. Wenn man nach Silicon Valley oder zum Silicon Roundabout in London kommt, dann fällt eines auf: Die Leute dort denken nicht wie Bauingenieure oder Pharmazeuten. Ein Bauingenieur würde sagen, ich baue diese Brücke erst dann, wenn ich weiß, dass sie absolut sicher ist. Mit Software oder AI-Konzepten ist die Sache völlig anders.