• vom 22.09.2018, 09:30 Uhr

Forschung


Computer

Wenn der Computer macht, was er will




  • Artikel
  • Kommentare (2)
  • Lesenswert (11)
  • Drucken
  • Leserbrief




Von Eva Stanzl

  • Ein neues Forschungsfeld untersucht das Verhalten von Maschinen.

Das Auge des Bösen: HAL, der Bordcomputer aus dem Film "2001: Odyssee im Weltraum", legt plötzlich neurotisches Verhalten an den Tag und tötet Besatzungsmitglieder. Doch nicht nur im Film reagieren Computer auf unerwartete Weise. - © Metro-Goldwyn-Mayer

Das Auge des Bösen: HAL, der Bordcomputer aus dem Film "2001: Odyssee im Weltraum", legt plötzlich neurotisches Verhalten an den Tag und tötet Besatzungsmitglieder. Doch nicht nur im Film reagieren Computer auf unerwartete Weise. © Metro-Goldwyn-Mayer

Iyad Rahwan, geboren 1978 in Aleppo, ist ein syrisch-australischer Computer- und Sozialforscher. Er ist Assistenzprofessor für Medienwissenschaft am Massachusetts Institute of Technology in Boston und forscht dort zu Selbstfahrenden Autos.

Iyad Rahwan, geboren 1978 in Aleppo, ist ein syrisch-australischer Computer- und Sozialforscher. Er ist Assistenzprofessor für Medienwissenschaft am Massachusetts Institute of Technology in Boston und forscht dort zu Selbstfahrenden Autos.© Foto: privat Iyad Rahwan, geboren 1978 in Aleppo, ist ein syrisch-australischer Computer- und Sozialforscher. Er ist Assistenzprofessor für Medienwissenschaft am Massachusetts Institute of Technology in Boston und forscht dort zu Selbstfahrenden Autos.© Foto: privat

Wien. Denkwürdige Szenen aus Stanley Kubricks Film "2001: Odyssee im Weltraum": Der Bordcomputer HAL handelt plötzlich eigenmächtig. Er tötet Besatzungsmitglieder und zeigt Angst, weil die Mannschaft ihn nach und nach abschaltet. In der Realität ist die Künstliche Intelligenz noch nicht so weit. Doch Experten stoßen immer wieder auf Effekte, die auf die technische Plattform und nicht die Nutzer zurückzuführen sind. Über das Forschungsfeld "Machine Behaviour" sprach der US-Experte für Maschinenverhalten, Iyad Rahwan, mit der "Wiener Zeitung" am Rande eines Symposions des Complexity Science Hub in Wien.

"Wiener Zeitung": Computer-Programme lernen immer selbständiger und treffen eigenständige Entscheidungen. Dabei verhalten sie sich oft überraschend. Was genau ist Maschinen-Verhalten?

Iyad Rahwan: Wir wissen es noch nicht ganz genau. Wir kennen tierisches und menschliches Verhalten, aber ob wir Maschinen nach denselben Kriterien untersuchen können, versuchen wir derzeit, herauszufinden.

Nach welchen Kriterien wollen Sie vorgehen?

Biologen ordnen Mensch und Tier nach Zugehörigkeit zu Gattungen und Arten. Seit dem 20. Jahrhundert sucht der Behaviorismus (abgeleitet von "behavior" für Verhalten), deren Verhalten mit naturwissenschaftlichen Methoden zu erklären, und die Verfechter des Behaviorismus waren jahrzehntelang Gegner der psychoanalytischen Richtungen. Jetzt aber stellt sich die Frage, ob es nützlich wäre, das "Verhalten" von Maschinen zu studieren. Immerhin sind sie, anders als Tiere, vom Menschen gemacht. Wir haben sie zu spezifischen Zwecken gebaut und programmiert, daher sollten wir doch sicherlich verstehen, warum sie sich verhalten, wie sie es tun. Das stimmt jedoch nur für Maschinen wie etwa die Waschmaschine, deren Funktion eine direkte Folge ihres Designs ist. Bei Künstlicher Intelligenz (KI) ist es anders.

Was genau ist anders?

Künstliche Intelligenz beschreibt kognitiv komplexe Maschinen, die die Welt auf ihre Weise "wahrnehmen" und über einen gewissen Grad an Autonomie verfügen. Selbstfahrende Autos oder Bots in Sozialen Medien etwa agieren, ohne dass der Mensch sie steuert. Sobald eine Maschine über Autonomie verfügt und aus Erfahrung lernt, kann sie Verhaltensweisen an den Tag legen, die so niemand programmiert hat.

Könnte eine Künstliche Intelligenz zum Beispiel auch Witze machen?

So weit sind wir noch nicht. Aber KI können auf ihre Umwelt - etwa auf Postings im Internet - auf unerwartete Art und Weise reagieren. Wenn wir beobachten, was der Computer tut, können wir besser verstehen, wie er in der Welt funktioniert. AlphaGo etwa ist ein Computerprogramm von Google, das ausschließlich das Brettspiel Go spielt und Strategien erlernt, die ihm niemand einprogrammiert hat. Es machte Züge, die zunächst sinnlos erscheinen, jedoch letztlich zum Sieg führen. Wir nennen das "Alien Play". Mittlerweile schauen sich Menschen Strategien für Go sogar vom Computer ab.

Sind Computer somit kreativ? Und gibt es wirklich so etwas wie maschinelle Wahrnehmung?

Es hängt davon ab, wie Sie Kreativität definieren. Die Wahrnehmung hat jedenfalls viele Ebenen. Eine Fliege nimmt die Welt durch ihr primitives visuelles System wahr, Einzeller, weil sie Druck verspüren. Die Interpretation der Wahrnehmung ist aber wieder ein anderes Thema: Man kann einen Garten entweder als Anordnung von farbigen Flecken oder als Arrangement von Bäumen, Blumen und Rasen verstehen. Maschinen werden immer raffinierter in ihrer Wahrnehmung und auch in ihrer Interpretation davon.

Warum brauchen Maschinen Unmengen von Daten, um etwas zu erlernen?

Wir können nur simple Algorithmen vollständig erklären. Warum aber lernende Systeme so gut funktionieren, wenn sie viele Daten miteinander vergleichen, wissen wir nicht genau. Wir können die Umstände nur im Labor testen, nicht in der reichhaltigen Realität. Gerade weil wir ihre Mechanik nicht gänzlich verstehen, studieren wir das Verhalten der Maschinen - ganz ähnlich wie wir auch menschliches Verhalten analysieren, weil wir das Gehirn nicht gut genug kennen.

Ist es, wie wenn man einem Kind die Verkehrsregeln beibringt, aber nie wissen kann, was in freier Wildbahn alles passiert?

Genau. Wir können nicht verhindern, dass ein Kind, das sich an die Verkehrsregeln hält, auf der Straße stolpert. Daher muss man alles üben. Wenn ich einem selbstfahrenden Auto alle möglichen Verkehrssituationen einprogrammiere, kann es trotzdem einen Unfall verursachen.

Können Computer unsere Freunde werden?

Forscher arbeiten an Assistenten, die plaudern und Fragen beantworten. Diese Systeme werden immer besser, irgendwann könnten sie sich sogar wie Freunde verhalten. Ob sie aber jemals ein Opfer bringen für andere, bleibt abzuwarten. Wahre Freundschaften erfordern Freiwilligkeit. Wenn Sie mich aber besitzen, bin ich nicht freiwillig für Sie da.





2 Leserkommentare




Mit dem Absenden des Kommentars erkennen Sie unsere Online-Nutzungsbedingungen an.


captcha Absenden

* Pflichtfelder (E-Mail-Adresse wird nicht veröffentlicht)



Dokumenten Information
Copyright © Wiener Zeitung Online 2018
Dokument erstellt am 2018-09-21 16:00:27
Letzte Änderung am 2018-09-21 18:05:13


Beliebte Inhalte

Meistgelesen
  1. Gemeinsamkeiten und Brüche
  2. Lunge aus dem Reagenzglas könnte möglich werden
  3. Wider das Vergessen
  4. Die Qual der Wahl
  5. Breakthrough-Preis für österreichische Molekularbiologin
Meistkommentiert
  1. Die Erderwärmung ist real und menschengemacht
  2. Das rätselhafte Ich
  3. Auf das Flutschen kommt es an
  4. Ein Algorithmus für Fantasie
  5. Hubble streikt

Werbung





Werbung