Zum Hauptinhalt springen

"Wie Sklaven, ohne das schlechte Gewissen"

Von Eva Stanzl

Wissen

Robert Trappl, ein Pionier der Künstlichen Intelligenz, über Algorithmen und die Weltherrschaft.


Künstliche Intelligenz - das Schlagwort Nummer eins der Gegenwart. KI "verändert die Arbeit", "wird vertrauenswürdig", "fälscht Stimmen nach nur fünf Sekunden", hieß es allein am Dienstag in den Medien. Die Schlagzeilen erwecken den Eindruck, wir seien von Algorithmen umgeben, die intelligenter sind als wir selbst, das Selbststudium mit größerer Disziplin verfolgen, das Leben auf der Erde neu ordnen und jenes auf anderen Planeten punktgenau analysieren, unsere Daten besser verwalten als wir selbst, ständig zuhören und sogar mit uns in Dialog treten. Doch ist alles so fortschrittlich, wie es scheint? "Artificial Intelligence hat sich in jedem Fall anders entwickelt als erwartet", erläuterte ein Pionier der Künstlichen Intelligenz, Robert Trappl, Montagabend im Klub der Bildungs- und Wissenschaftsjournalisten in Wien.

Dabei ist der Begriff "Künstliche Intelligenz" ein Zufall. Der US-Mathematiker John McCarthy erfand ihn im Jahr 1956, als Computer noch so groß wie Schränke waren. Man baute sie damals zur Verarbeitung großer Zahlenmengen. McCarthy fragte sich, ob Rechner neben den Zahlen auch Begriffe und Symbole verarbeiten könnten. Er versammelte Experten zu einer internationalen Konferenz am Dartmouth College in Hanover im US-Staat New Hampshire. Für den Förderantrag an die Rockefeller Foundation benötigte er einen klingenden Titel. McCarthy kam auf die Idee, die Tagung unter den Überbegriff "Artificial Intelligence" zu stellen, "was gefährlich war, weil es das damals noch gar nicht gab", sagte Trappl. Das sollte sich ändern.

"Vieles ist nicht eingetreten"

McCarthy erfand die Programmiersprache Lisp, die immer noch in Verwendung ist. Außerdem wird ihm die Erfindung des Alpha-Beta-Algorithmus, der zur Spielstärke von Schachprogrammen beitrug, zugeschrieben. Er ließ den lernfähigen Algorithmus gegen Spitzenspieler spielen. Bald setzte ihn sein eigener Algorithmus schachmatt. "Schon damals stellte man fest, dass das Lernen das Wichtigste ist", betonte Trappl, der 1969 mit anderen jungen Forschern die Österreichische Studiengesellschaft für Kybernetik gründete, 1977 Professor für medizinische Kybernetik und Artificial Intelligence der Uni Wien wurde und 1984 das Österreichische Forschungsinstitut for Artificial Intelligence ins Leben rief.

Dass das freie Lernen auch Probleme mit sich bringt, sollte sich erst weit nach diesen ersten Anfängen herausstellen. Erst heute ist klar, dass Computer Nazi-Begriffen mächtig werden oder ausgewählte User blockieren, wenn Programmierer etwa böse Absichten haben. "Anfang der 1960er Jahre dachte man eher, dass es zehn Jahre später einwandfreie Übersetzungsprogramme geben würde", sagte Trappl: "Das ist in dieser Zeit aber nicht eingetreten."

"Wie bei den Alchemisten"

Vielmehr gab es zum Weiterforschen zunächst kein Geld. In die Grundlagen der Artificial Intelligence wollte die US-Regierung keineswegs so viel investieren wie in den Bau der Atombombe.

"Niemand stieg ein. An einzelnen Unis wurde zwar gearbeitet, aber nicht eben mit den besten Computern. Die KI bestand aus Symbolverarbeitung", erzählte der Pionier: "Aufmerksam wurden die Leute erst wieder, als 1996 Schach-Weltmeister Garri Kasparow gegen den Schach-Computer Deep Blue verlor. Das überraschte aber niemand. Man wusste, dass man alle 1,5 Jahre 1,5 Züge weiter vorherberechnen kann."

Die Verarbeitung von mathematischen Symbolen hatte außerdem einen großen Vorteil. Man konnte nämlich überprüfen, wie das Programm zu seinem Ergebnis kam. Heute wissen die Programmierer zwar prinzipiell, wie ein Ergebnis entstanden ist, aber sie wissen es nicht genau. Die Rückverfolgung, welche Schlüsse der Rechner auf der Basis welcher Prämissen gezogen hat, fällt weg, der Algorithmus ist zur Blackbox geworden. "Das ist eines der großen Probleme", merkte Trappl an, insbesondere zumal Computer in der medizinischen Diagnostik zum Einsatz kommen und man sie sogar bei psychologischen Tests heranziehen will, etwa um die Rückfälligkeitswahrscheinlichkeit von Straftätern abzuschätzen. Wer trägt dabei die Verantwortung, und wer hat falsch entschieden?

"Früher waren die Programme überschaubar. Sie konnten zwar nicht viel, aber sie konnten es nachvollziehbar verlässlich. Bei einer Million Pseudo-Neuronen - jede Ähnlichkeit mit lebenden Nervenzellen ist zufällig und unbeabsichtigt - kann niemand die Arbeitsschritte nachvollziehen", erklärte der Wissenschafter. Mitunter seien die Auswüchse skurril. Etwa hätte ein Programm in einer Studie ausschließlich Pferde mit 100-prozentiger Zuverlässigkeit erkannt, weil der Fotograf der Tiere sein Logo in für das freie Auge unsichtbarer Größe angebracht hatte.

"Explainable AI" heißt der nächste Schritt: die Nachvollziehbarkeit der Lösung. Allerdings sei dieses Öffnen der Black Box derzeit "eine etwas skurrile Bastelei. Auf der Suche nach der optimalen Lösung geht man zwischen Versuch und Irrtum wie bei den Alchemisten vor."

"Haben weniger Kontrolle"

Das Computerprogramm Watson wurde von IBM entwickelt, um Antworten auf Fragen zu geben, die in digitaler Form in natürlicher Sprache eingegeben werden. Das darunterliegende System des Deep Learning hat den bislang höchsten Grad an Genauigkeit erreicht. Die Algorithmen können die menschliche Leistung beim Klassifizieren von Bildern übertreffen und den weltbesten Spieler in dem komplexen Brettspiel "Go" schlagen. Alle drei Forscher, die an der bahnbrechenden Arbeit beteiligt sind, arbeiten übrigens für den Google-Konzern, der bei der Finanzierung dieser Innovationen weitaus mehr Geld in die Hand nimmt als Österreich oder Europa.

Nach wie vor erkennen Algorithmen nicht jedes Bild. Trotzdem sind wir ihnen stärker ausgeliefert als früher. "Da man die Abläufe nicht mehr rückverfolgen kann, kann man sie besser austricksen", sagte Trappl. Verbrecher könnten schauen, dass Gesichtserkennungssysteme sie nicht sehen. T-Shirts mit skurrilen Mustern könnten autonome Autos anhalten. "Wir haben weniger Kontrolle."

Mechanische Dienstboten

Wann also werden Computer, Roboter, die Herrschaft über die Welt und letztlich über den Menschen übernehmen? "Warum sollte ein Roboter das tun? Er hat keine Motivation", fand Trappl, und machte einen Vergleich: "Das wäre, als würde der Computer aufbegehren und erklären, dass er keine Bilder mehr erkennen, sondern Sprachen und Namen lernen will. Doch dazu fehlt ihm doch die Neugier." Erst komplexe Persönlichkeitsmodelle könnten ein Programm neugierig machen. Es könnte dann feststellen, was es lernen sollte, um Zusatzerfolge zu erreichen. "Mit Persönlichkeitsmodellen stehen wir jedoch am Anfang", schränkte der Experte ein. Dabei stelle sich die Frage, ob man Bewusstsein schaffen kann oder nicht.

Ein komplexes Persönlichkeitsprogramm müsste Bedürfnis und Begehren entwickeln, die längerfristige Planung ermöglichen. "Heute kann man aber ziemlich sicher sein, dass im Computer nichts drinnen ist. Ein Roboter hat zwar ein internes Abbild der Umwelt, mit dem er erkennt, wo Objekte im Raum stehen, damit er sich bewegen kann. Aber er trifft keine Annahmen auf der Basis von Glaubsenssätzen, hat kein Begehren und bildet keine Absichten", sagte er. In diesem Sinne seien intelligente Maschinen weniger wie intelligente Menschen als wie immer schnellere, immer effizientere mechanische Dienstboten: "Sie sind wie Sklaven, ohne das schlechte Gewissen", so Trappl.