Zum Hauptinhalt springen

Wenn der Computer macht, was er will

Von Eva Stanzl

Wissen

Ein neues Forschungsfeld untersucht das Verhalten von Maschinen.


Wien. Denkwürdige Szenen aus Stanley Kubricks Film "2001: Odyssee im Weltraum": Der Bordcomputer HAL handelt plötzlich eigenmächtig. Er tötet Besatzungsmitglieder und zeigt Angst, weil die Mannschaft ihn nach und nach abschaltet. In der Realität ist die Künstliche Intelligenz noch nicht so weit. Doch Experten stoßen immer wieder auf Effekte, die auf die technische Plattform und nicht die Nutzer zurückzuführen sind. Über das Forschungsfeld "Machine Behaviour" sprach der US-Experte für Maschinenverhalten, Iyad Rahwan, mit der "Wiener Zeitung" am Rande eines Symposions des Complexity Science Hub in Wien.

"Wiener Zeitung": Computer-Programme lernen immer selbständiger und treffen eigenständige Entscheidungen. Dabei verhalten sie sich oft überraschend. Was genau ist Maschinen-Verhalten?

Iyad Rahwan: Wir wissen es noch nicht ganz genau. Wir kennen tierisches und menschliches Verhalten, aber ob wir Maschinen nach denselben Kriterien untersuchen können, versuchen wir derzeit, herauszufinden.

Nach welchen Kriterien wollen Sie vorgehen?

Biologen ordnen Mensch und Tier nach Zugehörigkeit zu Gattungen und Arten. Seit dem 20. Jahrhundert sucht der Behaviorismus (abgeleitet von "behavior" für Verhalten), deren Verhalten mit naturwissenschaftlichen Methoden zu erklären, und die Verfechter des Behaviorismus waren jahrzehntelang Gegner der psychoanalytischen Richtungen. Jetzt aber stellt sich die Frage, ob es nützlich wäre, das "Verhalten" von Maschinen zu studieren. Immerhin sind sie, anders als Tiere, vom Menschen gemacht. Wir haben sie zu spezifischen Zwecken gebaut und programmiert, daher sollten wir doch sicherlich verstehen, warum sie sich verhalten, wie sie es tun. Das stimmt jedoch nur für Maschinen wie etwa die Waschmaschine, deren Funktion eine direkte Folge ihres Designs ist. Bei Künstlicher Intelligenz (KI) ist es anders.

Was genau ist anders?

Künstliche Intelligenz beschreibt kognitiv komplexe Maschinen, die die Welt auf ihre Weise "wahrnehmen" und über einen gewissen Grad an Autonomie verfügen. Selbstfahrende Autos oder Bots in Sozialen Medien etwa agieren, ohne dass der Mensch sie steuert. Sobald eine Maschine über Autonomie verfügt und aus Erfahrung lernt, kann sie Verhaltensweisen an den Tag legen, die so niemand programmiert hat.

Könnte eine Künstliche Intelligenz zum Beispiel auch Witze machen?

So weit sind wir noch nicht. Aber KI können auf ihre Umwelt - etwa auf Postings im Internet - auf unerwartete Art und Weise reagieren. Wenn wir beobachten, was der Computer tut, können wir besser verstehen, wie er in der Welt funktioniert. AlphaGo etwa ist ein Computerprogramm von Google, das ausschließlich das Brettspiel Go spielt und Strategien erlernt, die ihm niemand einprogrammiert hat. Es machte Züge, die zunächst sinnlos erscheinen, jedoch letztlich zum Sieg führen. Wir nennen das "Alien Play". Mittlerweile schauen sich Menschen Strategien für Go sogar vom Computer ab.

Sind Computer somit kreativ? Und gibt es wirklich so etwas wie maschinelle Wahrnehmung?

Es hängt davon ab, wie Sie Kreativität definieren. Die Wahrnehmung hat jedenfalls viele Ebenen. Eine Fliege nimmt die Welt durch ihr primitives visuelles System wahr, Einzeller, weil sie Druck verspüren. Die Interpretation der Wahrnehmung ist aber wieder ein anderes Thema: Man kann einen Garten entweder als Anordnung von farbigen Flecken oder als Arrangement von Bäumen, Blumen und Rasen verstehen. Maschinen werden immer raffinierter in ihrer Wahrnehmung und auch in ihrer Interpretation davon.

Warum brauchen Maschinen Unmengen von Daten, um etwas zu erlernen?

Wir können nur simple Algorithmen vollständig erklären. Warum aber lernende Systeme so gut funktionieren, wenn sie viele Daten miteinander vergleichen, wissen wir nicht genau. Wir können die Umstände nur im Labor testen, nicht in der reichhaltigen Realität. Gerade weil wir ihre Mechanik nicht gänzlich verstehen, studieren wir das Verhalten der Maschinen - ganz ähnlich wie wir auch menschliches Verhalten analysieren, weil wir das Gehirn nicht gut genug kennen.

Ist es, wie wenn man einem Kind die Verkehrsregeln beibringt, aber nie wissen kann, was in freier Wildbahn alles passiert?

Genau. Wir können nicht verhindern, dass ein Kind, das sich an die Verkehrsregeln hält, auf der Straße stolpert. Daher muss man alles üben. Wenn ich einem selbstfahrenden Auto alle möglichen Verkehrssituationen einprogrammiere, kann es trotzdem einen Unfall verursachen.

Können Computer unsere Freunde werden?

Forscher arbeiten an Assistenten, die plaudern und Fragen beantworten. Diese Systeme werden immer besser, irgendwann könnten sie sich sogar wie Freunde verhalten. Ob sie aber jemals ein Opfer bringen für andere, bleibt abzuwarten. Wahre Freundschaften erfordern Freiwilligkeit. Wenn Sie mich aber besitzen, bin ich nicht freiwillig für Sie da.