Nicht nur Menschen brauchen Ziele, auch Maschinen. Was passieren kann, wenn der Mensch keine klaren Ziele formuliert, hat der schwedische Philosoph Nick Bostrom 2003 in einem Gedankenexperiment gezeigt. In dem als Paperclip-Maximizer bekannten Problem soll ein Super-Roboter so viele Büroklammern wie möglich produzieren. Um seine Mission bestens zu erfüllen, sind der künstlichen Intelligenz aber die Menschen im Weg. Diese könnten die Maschine ja deaktivieren und damit verhindern, dass sie ihren Auftrag erfüllen kann. Der Roboter übernimmt daher die Herrschaft über die Welt, löscht die Menschen aus und verwendet sie überdies noch als Rohstoff für die Klammern.

- © APAweb/dpa, Arne Dedert
© APAweb/dpa, Arne Dedert

Das was auf den ersten Blick als triviales und fiktives Ziel erscheint ist bereits Realität, zwar nicht in seiner fatalen Konsequenz, dafür aber in seiner Essenz. Anstelle der Maximierung von Büroklammern geht es im Moment um die Maximierung von Zugriffen. Algorithmen von Facebook oder YouTube folgen bekanntlich dem Prinzip, immer mehr Klicks zu generieren.

"Wir sind nicht in der Lage, das zu stoppen", betonte Stuart Russell, der zu den führenden Köpfen der internationalen KI-Forscher zählt in seiner Online-Lecture zum Thema "Digitaler Humanismus". Er hat u.a. das Standardwerk  über KI verfasst: Artificial Intelligence. A Modern Approach (1995). In seinem aktuellen Buch "Human Compatible" setzt er sich mit der Frage auseinander, wie Menschen überlegene KI kontrollieren können. Derzeit forscht und unterrichtet Russell in Berkeley, an der University of California. Im Rahmen der Lectures zum Thema "Digitaler Humanismus" der TU Wien sprach er – trotz technischer Probleme - über die Gefahren durch unpräzise KI und verglich die Situation mit dem König-Midas-Problem, benannt nach einem gierigen König, der alles was er berührt zu Gold macht. Schlussendlich muss er verhungern, da selbst das Essen, das er berührt, vergoldet wird.

"Soziale Medien sind eine Katastrophe", so Russell weiter. "Sie haben mehr Macht als irgendein Propagandaministerium je gehabt hat. Einfache Algorithmen manipulieren menschliche Präferenzen, um die Klickrate zu erhöhen. Das ist desaströs für die demokratische Entwicklung". Wie Studien gezeigt haben, führen diese Empfehl-KI zur Radikalisierung der Nutzerinnen und Nutzern, da die Inhalte, die ihnen gezeigt werden, immer radikaler werden.

Eine Lösung wäre, dass der Mensch ganz auf solche Algorithmen verzichte. Doch angesichts der Versprechen, die sich die Wirtschaft draus erhofft, sei dies mehr als unwahrscheinlich, sagte Russell. Vielmehr sollte sich der Mensch daher darauf besinnen, die Funktion von Maschinen auf die Nützlichkeit zu reduzieren. Und nützlich seien Maschinen dann, wenn sie den Zielsetzungen der Menschen entsprechen. Es sei daher elementar, dass die Ziele genau gesetzt werden und alle möglichen Pfade die dorthin führen müssten durchdacht sein und präzise formuliert werden.

Anstatt Maschinen zu bauen, die ihre eigenen Ziele verfolgen, sollten Maschinen also die Ziele der Menschen verfolgen. Denn so könnte sichergestellt werden, dass sich Roboter auch selbst ausschalten. KI sollten daher menschliche Vorlieben und Wünsche lernen können und bereits bestehende Empfehl-KI sollte dahingehend weiterentwickelt werden. Allerdings verändern sich diese im Laufe der Zeit, sie sind sie abhängig von Situationen und Launen der Menschen. 

Manche Experten im weiten Feld der KI sehen noch eine andere Alternative: und zwar so weiter machen wie bisher. Denn wirklich superintelligente Maschinen, die sich nicht ausschalten lassen, würde es ohnehin nie geben, meinen sie.