"Wiener Zeitung": Schlecht benehmen sich normalerweise Menschen - etwa wenn sie einen Computer anschreien, der gerade abstürzt. Sie haben ein Buch mit dem Titel "Machines behaving badly" über böse, ungezogene Maschinen geschrieben. Wann ist eine Maschine ungezogen?

Toby Walsh: Noch nie haben Maschinen so viele Entscheidungen getroffen wie heute. Diese Entscheidungen können auch moralischer Natur sein, etwa wenn ein Algorithmus die Höhe von Versicherungsbeiträgen vorschreibt, Sozialleistungen verweigert, oder im Krieg automatische Waffen über Leben und Tod entscheiden. Bei Fehlentscheidungen verhalten sich Maschinen falsch. Allerdings sind Algorithmen keine moralischen Wesen. Sie empfinden keinen Schmerz, haben kein Bewusstsein und können nicht bestraft werden. Da wir sie nicht zur Rechenschaft ziehen können, sollten wir sorgfältig überlegen, worüber wir sie entscheiden lassen. Denn wenn wir sie abschalten, ist es ihnen egal, es sind ja nur Programme. Wir müssen prüfen, in welcher Hinsicht unsere Programme Schaden anrichten können. Menschen sind verantwortlich für die Dinge, die sie an Maschinen abgeben.

Toby Walsh, geboren 1964 in England, ist Informatiker mit Spezialgebiet Künstliche Intelligenz und Professor of Artificial Intelligence an der University of New South Wales in Sydney, Australien. Für einen Vortrag in der Reihe Gödel Lectures der Fakultät für Informatik der TU Wien besuchte er die Bundeshauptstadt. - © Amélie Chapalain
Toby Walsh, geboren 1964 in England, ist Informatiker mit Spezialgebiet Künstliche Intelligenz und Professor of Artificial Intelligence an der University of New South Wales in Sydney, Australien. Für einen Vortrag in der Reihe Gödel Lectures der Fakultät für Informatik der TU Wien besuchte er die Bundeshauptstadt. - © Amélie Chapalain

Warum verzichten wir freiwillig auf Freiheit, indem wir leblosen Maschinen einen Handlungsspielraum über Leben geben?

In manchen Bereichen ist das sinnvoll. Langweilige, repetitive Aufgaben bringen dem Leben nichts, sondern rauben wertvolle Zeit. Und es gibt kein Gesetz unter der Sonne, wonach wir nur zwei von sieben Tagen frei haben dürfen, Maschinen könnten uns drei freie Tagen ermöglichen. Zudem treffen Algorithmen oftmals bessere, evidenzbasierte Entscheidungen, die stärker auf persönliche Präferenzen zugeschnitten sind und Gefahr vermeiden. Selbstfahrende Autos etwa sparen Zeit und senken die Unfallgefahr. Maschinelle Entscheidungsprozesse orientieren sich an Fakten und erlauben uns, unseren Kopf für andere Dinge zu gebrauchen. Wenn wir jedoch Algorithmen bestimmen lassen, wer einen Job bekommt oder wer ins Gefängnis muss, ist das hochgradig bedenklich.

Wo gehen wir zu weit?

Wir gehen nicht zu weit. Wir müssen nur sorgsamer hinterfragen, welche Entscheidungen wir Maschinen überlassen. In den meisten Ländern sind in Strafprozessen Geschworene an der Urteilsfindung beteiligt. Säßen Roboter auf der Geschworenenbank, würden sie zwar objektiver urteilen, aber das ist nicht die Welt, in der ich aufwachen möchte. Ein empathieloser Algorithmus sollte mir nicht die Freiheit nehmen.

Vor derartigen Szenarien wird seit Jahren gewarnt. Warum bleibt alles beim Alten?

30 Länder, das Europäische Parlament und die Afrikanische Union haben etwa für ein Verbot von Killer-Robotern gestimmt. Tausende Kollegen und ich haben einen offenen Brief an die Vereinten Nationen geschrieben. Die Welt zu verändern dauert ihre Zeit.

Mehrheitseigentümer der digitalen Technologien ist eine Handvoll Milliardäre. Sind Veränderungen schwieriger zu bewerkstelligen, weil mächtige Interessen dagegenstehen?

Ja, absolut. Die Konzentration von Reichtum und Macht in den Händen einiger weniger ist kontraproduktiv für das Gemeinwohl. Es ist eine schreckliche Idee, dass Elon Musk den Kurznachrichtendienst Twitter kaufen will, weil er meint, im Besitz einer privilegierten Idee von freier Meinungsäußerung zu sein. Meinungsfreiheit ist ein delikates Konzept, das auch Religions- und Lebensfreiheit auf die Probe stellt. Ich glaube nicht, dass Milliardäre besser als andere geeignet sind, diese komplexen Fragen zu beantworten.

Ihre Szenarien für die Zukunft?

Eine Welt, in der die Maschinen regieren, haben George Orwell und Aldous Huxley gezeichnet. Wie wir tatsächlich in Zukunft leben werden, hängt davon ab, was wir jetzt entscheiden. Die Technologie ist nicht unser Schicksal, sondern so, wie wir sie machen. Wir können Tech-Konzerne aggressiver besteuern oder beschließen, dass Social Media-Konzerne transparenter und offener agieren müssen und unsere Daten nicht ihnen, sondern uns gehören: Wenn wir den Anbieter wechseln, nehmen wir unsere Freunde und Daten mit.

Gibt es Vorbilder?

In der Industrierevolution hatten wir einen sinnvollen Modus erreicht. Es gab schwierige Vorzeichen mit Maschinensturm und Streiks, der großen Depression und zwei Weltkriegen. Aber später haben sich die Versprechen von höherer Lebenserwartung, besserer Lebensqualität, höherem Medianeinkommen und mehr Gleichheit in der Gesellschaft erfüllt. Nach dem Zweiten Weltkrieg hatten wir ein Goldenes Zeitalter, in dem Arbeitnehmerrechte verbessert, Bildungsangebote ausgebaut und die Vorteile der Industrie an alle verteilt wurden. Seit den 1970er Jahren gibt es Rückschritte. Die Ungleichheit ist gestiegen, wir verteilen die Gewinne nicht. Und jetzt müssen wir uns radikal fragen, wie wir sicherstellen können, dass die digitale Revolution nicht nur die Milliardäre reicher macht, sondern der gesamten Gesellschaft nützt.

Schlagzeilen macht derzeit ein Google-Mitarbeiter, der glaubt, dass ein Chatbot Bewusstsein hat. Sie haben klargestellt, Maschinen hätten heute kein Bewusstsein. Ist es für die Zukunft vorstellbar, dass wir mit Algorithmen vernünftig reden können, dass sie Mitgefühl entwickeln und die Schwerkraft in der Praxis mühelos begreifen?

Es wäre schrecklich vermessen, anzunehmen, dass es nichts Intelligenteres als uns Menschen gibt und wir nichts bauen könnten, das uns nicht über den Kopf wachsen kann. Im Gegenteil: Immer, wenn wir uns für etwas Besonderes halten, belehren uns die Fakten der Wahrheit: Die Erde dreht sich nicht um die Sonne, wir sind nicht genetisch anders als Affen. Unsere Irrtümer haben jedoch nichts mit mangelnder Intelligenz zu tun, sondern wir kommen immer so weit, wie es geht. Das Gehirn hat Grenzen, die Algorithmen nicht haben werden. Es ist also gut möglich, dass wir irgendwann vernünftig mit ihnen reden können.

Interessant bleibt die Frage, ob Algorithmen Mitgefühl und Empathiefähigkeit, die uns ermöglicht, soziale Situationen blitzschnell zu begreifen, haben werden.

Selbst wenn wir elektrische Geräte auf Gefühle und Empathiefähigkeit programmieren könnten, werden sie uns wohl nicht so sehr ans Herz wachsen wie Menschen, die sich verlieben und Verstorbene betrauern. Schriebe eine Maschine einen fantastischen Roman, würde die Geschichte nicht über die menschliche Erfahrung erzählen. Derzeit schreiben sie übrigens schlechte Prosa, aber das könnte sich zu besseren, leicht verdaulichen Urlaubslektüren mausern.