• vom 18.10.2017, 19:05 Uhr

Künstliche Intelligenz


AlphaGo Zero

Go-Champion ohne menschliches Zutun




  • Artikel
  • Lesenswert (0)
  • Drucken
  • Leserbrief




Von WZ Online, APA

  • Neues Programm erlernte asiatisches Brettspiel Go von Grund auf selbst

Vielleicht alles nur eine Gegnstrategie zur Digitalisierung? Wenn Computer gegeneinander spielen, dann nehmen sie Menschen keine Arbeitsplätze weg? - © APAweb/AFP

Vielleicht alles nur eine Gegnstrategie zur Digitalisierung? Wenn Computer gegeneinander spielen, dann nehmen sie Menschen keine Arbeitsplätze weg? © APAweb/AFP

Wien/London/Mountain View. Das Aufsehen war groß als die Google-Software AlphaGo 2016 den Spitzenspieler Lee Sedol im Brettspiel Go besiegte. Forscher, darunter ein österreichischer Informatiker, haben die Software nun unter dem Titel AlphaGo Zero entscheidend weiterentwickelt. Das System lernte das Spiel ohne menschliches Zutun und besiegte auch seine Vorgängerversionen, berichten die Forscher im Fachjournal "Nature".

AlphaGo hat sich heuer auch mit einem glatten 3:0-Sieg gegen den vermutlich weltbesten Go-Spieler Ke Jie durchgesetzt. An diesen Erfolgen wurde ersichtlich, wie weit die Entwicklung sogenannter Künstlicher Intelligenz (KI) bereits fortgeschritten ist. Das System stammt von der britischen Firma DeepMind, die vor mehr als drei Jahren vom US-Konzern Google übernommen wurde.

Besonders überraschend waren die Fähigkeiten von AlphaGo, weil das rund 3.000 Jahre alte asiatisch Spiel spezielle Anforderungen stellt, die bisher eher dem menschlichen Geist exklusiv zugebilligt wurden. Angesichts nahezu unbegrenzter Möglichkeiten für Züge, ist nämlich viel Intuition, kreatives Denken und Lernfähigkeit gefragt.

Während AlphaGo seinen virtuellen Geist noch am Studium von Millionen Zügen von menschlichen Top-Spielern über Monate hinweg gestärkt hatte, gingen die Wissenschafter um David Silver von DeepMind in London nun andere Wege: Im Zentrum der neuen Generation stand demnach der Gedanke, ein System zu bauen, welches das Spiel ohne Anschauungsmaterial von der Pike auf selbst erlernt und auf sich alleine gestellt weiterentwickelt - also "komplett ohne menschliche Intervention funktioniert", erklärte Silver.

Die Fähigkeit ein System dazu zu bringen, etwas annähernd von null auf zu erlernen, sei vor allem dann wichtig, wenn es darum geht, eine Form von KI zu entwickeln, die sich selbstständig auf für sie neue Aufgaben jeglicher Art einstellt. Am Ende strebe man die Entwicklung eines Algorithmus an, der potenziell auf jedes Problem angesetzt werden kann, so der Forscher, in dessen Team der 25-jährige Niederösterreicher Julian Schrittwieser mitgearbeitet hat. Der Softwareentwickler ist seit 2012 bei Google. Sein Engagement entwickelte sich direkt aus einem Praktikum, das er noch im Rahmen seines Studiums an der Technischen Universität (TU) Wien absolviert hat, wie er gegenüber der APA erklärte.

Nach der Übernahme von DeepMind durch Google wurde Schrittwieser durch einen Vortrag von Ko-Firmengründer Demis Hassabis auf AlphaGo aufmerksam. "Das hat mich dann so interessiert, dass ich zu DeepMind gewechselt bin", sagte Schrittwieser. Seine Expertise sowohl im Soft- und Hardware-Bereich als auch beim maschinellen Lernen habe auch zu der aktuellen Arbeit beigetragen, bei der Schrittwieser als einer der Hauptautoren fungiert.

Das von ihm mitentwickelte neue System begann mit nur minimaler Startinformation über die Regeln und Beschaffenheit des Spiels gegen sich selbst zu spielen. Grundlage von AlphaGo Zero ist ein künstliches neuronales Netzwerk, das darauf abzielt, die Auswahl der nächsten Züge des Programms und den Gewinner der jeweils gespielten Partien vorherzusagen. Für gewonnene Spiele wurde es durch ein Punktesystem belohnt. Dadurch "lernte" AlphaGo Zero mit jedem Spiel dazu.

Nach wenigen Tagen - allerdings immerhin nach fast fünf Millionen Partien gegen sich selbst - schlug das Programm alle seine Vorgänger. Jenes System, das mit den Siegen gegen die Spitzenspieler aufhorchen ließ, ging mit einem klaren 100:0 unter. Dafür brauchte es weit weniger Rechenressourcen als AlphaGo, heißt es seitens DeepMind.

Nicht nur habe der Algorithmus sozusagen all das in kurzer Zeit herausgefunden, was Menschen in tausenden Jahren über das Spiel gelernt haben, er habe auch völlig neue Herangehensweisen entwickelt. "Ich denke, ich kann für das Team sprechen, dass wir alle angenehm überrascht darüber sind, wie weit sich das System entwickelt hat", sagte Silver. Für Schrittwieser sind die neuen Erkenntnisse ein Schritt in Richtung des Verständnisses des großen Mysteriums der menschlichen Intelligenz, von deren Verständnis man natürlich noch weit entfernt sei.

Gegenüber dem Science Media Center (SMC) brachten Experten zwar einerseits ihre Anerkennung für die Arbeit des DeepMind-Teams zu Ausdruck, stiegen aber andererseits auf die Euphoriebremse: So hätten die Wissenschafter in der Arbeit "selbst ja keine fundamentalen algorithmischen Neuerungen vorstellt, sondern hauptsächlich existierende Verfahren clever kombiniert", erklärte Marcus Liwicki von der Technische Universität Kaiserslautern. Die Anwendbarkeit des Ansatzes in anderen Bereichen wäre außerdem eher eingeschränkt, da das System eben Millionen von Spielen durchführen muss, bei denen Erfolg eindeutig definiert ist, um derart gut zu werden. "Das ist in vielen praktischen Problemen jedoch nicht der Fall", so Liwicki.





Schlagwörter

AlphaGo Zero

Leserkommentare




Mit dem Absenden des Kommentars erkennen Sie unsere Online-Nutzungsbedingungen an.


captcha Absenden

* Pflichtfelder (E-Mail-Adresse wird nicht veröffentlicht)


Dokumenten Information
Copyright © Wiener Zeitung Online 2018
Dokument erstellt am 2017-10-18 12:53:51
Letzte Änderung am 2017-10-18 12:55:19


Werbung




Werbung