Einen Roboter, der seine Umwelt versteht und neue Probleme selbstständig löst, gibt es noch nicht. Wie intelligent ist Künstliche Intelligenz?
Es ist erstaunlich, was man auf der Suche nach digitaler Selbsterkenntnis alles erfährt: „Eva Stanzl ist vor allem bekannt für ihre Arbeit im Bereich des Fernsehjournalismus“, informiert der Chatbot ChatGPT. Das ist schlicht falsch. Die Autorin hat noch nie beim Fernsehen gearbeitet und das Internet kennt auch keine Person gleichen Namens, auf die diese Aussage zutrifft. Ist der Chatbot dumm? Oder ist er nur schlecht informiert? Ein bisschen von beidem – und trotzdem weder noch.
- Mehr für dich: Funktionierende Computer als Elektroschrott?
Der Hype um Künstliche Intelligenz, kurz KI oder AI für Artificial Intelligence, weckt bei vielen die Erwartung, der Ersatz der Spezies Homo sapiens durch sich selbst steuernde Software und Roboter sei nur noch eine Frage von wenigen Jahren.
Weit gefehlt: Programme wie ChatGPT lernen durch die Verknüpfung von inhaltlich verwandten Begriffen in ihrer Datenbank und durch Korrekturen, die ihre Nutzer:innen ihnen mitgeben (siehe Infos und Quellen). Bei selten gesuchten Wörtern oder auch Namen tun sie sich schwer, ihren Wissensstand zu verbessern. Bekannte Wörter können sie hingegen mit der Zahl der Abfragen, Bestätigungen und Verbesserungen schon genauer definieren. Für „Intelligenz“ etwa hat der Chatbot sogar eine ziemlich gute Definition. Die bezeichnet er als ein „vielschichtiges Konzept, das oft auf die Fähigkeit einer Person, logisch zu denken, Probleme zu lösen, Wissen zu erwerben, zu verstehen und anzuwenden, Bezug nimmt“. Und: „Es beinhaltet auch die Fähigkeit, abstrakte Konzepte zu verstehen, kreativ zu sein und sich an neue Situationen anzupassen.“
Unterschied zwischen künstlichem und echtem Denken
Doch wird die Künstliche Intelligenz selbst ihrer eigenen Definition gerecht? Was unterscheidet maschinelle von menschlicher Intelligenz? Ist KI überhaupt intelligent? „Nein“, sagt Andreas Eckhardt vom Institut für Wirtschaftsinformatik, Produktionswirtschaft und Logistik der Universität Innsbruck zur WZ, „das ist sie nicht. KI kann nicht mit uns konkurrieren. Sie ist nur ein mathematisches Modell, das über neuronale Netze lernt. Ein neuronales Netz ist ein Modell, das es einem Computer ermöglicht, aus Statistiken und Bildern Information zu erzeugen. Dabei werden keine Sinneserfahrungen transportiert, keine Gedanken, keine Ethik oder Moral entwickelt und keine intellektuellen Theorien aufgestellt. Auch das Verständnis für Logik ist bestenfalls begrenzt. „Wir sollten den Mythos, der in den letzten eineinhalb Jahren zu Künstlicher Intelligenz entstanden ist, entzaubern“, meint Eckhardt.
Eine Maschine denkt nicht und fühlt nicht, sondern sie leistet.Justus Piater
Der Mensch lernt durch Erfahrungen, die Nervenverbindungen im Gehirn (Synapsen) erzeugen, welche sich laufend verändern und erweitern. Diese Aktivität ermöglicht es, im Erlebten Sinn zu sehen, seine Bedeutung zu erkennen und Erlerntes und Erlebtes miteinander in Bezug zu setzen und abzuspeichern. All dies macht eine Künstliche Intelligenz nicht.
Gefühlloses Schaffen
„Eine Maschine denkt nicht und fühlt nicht, sondern sie leistet. Der Begriff Künstliche Intelligenz hat sich im Lauf der Zeit in Abhängigkeit davon weiterentwickelt, was sie zu leisten vermochte“, sagt Justus Piater vom Digital Science Center und dem Institut für Informatik der Uni Innsbruck. Als Spezialist für intelligente Systeme unterscheidet er zwischen der „umfassenden Intelligenz von Menschen, auch wenn es schwer ist, festzunageln, worin sie genau besteht, und der Leistungsfähigkeit von KI-Systemen“. Oder anders gesagt: Der Taschenrechner rechnet grundsätzlich besser als der Kopf, von der Addition über komplexe Rechenformeln bis hin zu Sinus-Kalkulationen, aber dafür kann das Gehirn besser abstrahieren.
Im Prinzip lassen sich KI-Systeme bauen, die jede definierbare Aufgabe besser lösen können als der Mensch, – und das ist der springende Punkt: Die Aufgabe muss gestellt werden. Dazu müssen sich Menschen, die eine KI programmieren, überlegen, wann und wozu welches Problem gelöst werden soll, wie es formalisiert wird, welche Methoden dafür eingesetzt werden sollen und wo die Trainingsdaten herkommen. Nur, wenn er all diese Parameter erhält, kann der Chatbot plausible Texte liefern. Er versteht jedoch deren Inhalt nicht, zumal er nur Wahrscheinlichkeiten verknüpfen, aber keine Verbindung zur realen Welt herstellen kann. Er ist ein einseitig osmotisches System, begrenzt in seiner Blackbox.
Der Drang, etwas zu erklären
Im Gegensatz dazu steht der fundamentale Drang der Menschheit, Bezüge herzustellen, sich auszutauschen und die Welt zu erklären. „Wir geben uns nicht mit Vorhersagen zufrieden. Sondern wir wollen verstehen, wie die Dinge funktionieren. Was der Maschine fehlt, ist diese Allgemeinheit der menschlichen Intelligenz“, erläutert Piater und nennt ein Beispiel: Wer ein KI-System bauen will, das Sonnenauf- und Sonnenuntergangszeiten vorhersagt, muss Daten zu Längen- und Breitengraden, Tages- und Jahreszeit in ein Learning-Modell füttern, und das System trainieren. „Irgendwann kann es alle Sonnenauf- und Sonnenuntergangszeiten beliebig genau vorhersagen und dann könnte man meinen: Perfekt! Das System hat verstanden, wie dieser Ablauf funktioniert. Aber dem ist nicht so, denn er kann ihn nur sozusagen auswendig.” Von echtem, intrinsischem Verständnis über die inneren Zusammenhänge eines Sachverhalts könne keine Rede sein.
Seinem Erklärungsdrang folgend, sucht der Mensch Einsichten, zum Beispiel warum auf den Tag die Nacht folgt. Er hat entdeckt, dass das daran liegt, dass die Erde eine Kugel ist, die um die Sonne kreist. Heutige KI hat keine Möglichkeit, Erklärungsmodelle zu finden, weil die Lernmodelle dafür nicht aufgebaut sind. Um aus ihr mehr zu machen als „bessere Taschenrechner“, fehle dem Fachgebiet noch eine „grundlegende Erkenntnis, eine Kerneinsicht, wie diese Systeme etwas über die Welt lernen“, sagt Piater.
Zweites Beispiel, diesmal aus dem Haushalt: Roboter können keine Geschirrspülmaschine einräumen. Mit heutiger Technologie müsste man ihnen jeden Handgriff separat einprogrammieren, oder ihnen alles hunderte Male zeigen. Eine Maschine hat nämlich kein Verständnis dafür, dass man Tassen umgedreht schlichten muss, damit sich in ihnen kein Wasser sammelt, oder dass man die Teller so einräumen sollte, dass das Wasser dazwischen durchfließen kann.
Maschinelle Lösungskompetenz gesucht
Eine Künstliche Intelligenz, die sich die Welt besser erklären kann als derzeit, würde die Industrie leistungsfähiger machen. „Bei Produktionskosten stehen Hochlohnländer im Wettbewerb mit Niedriglohnländern und wir können unsere Produktivität nur mit mehr Automatisierung erhöhen. Fehlendes Verständnis der Roboter bremst die Automatisierung aus“, erklärt Piater. Dumme Maschinen, die weder logisch denken noch neue Probleme spontan auf eine Weise lösen können, wie es ihnen noch niemand gezeigt hat, hemmen das Bruttoinlandsprodukt.
Zwar gebe es heute bereits KI-Systeme, die mehr als eine Aufgabe bemerkenswert gut bewältigen würden. Sie jedoch als allgemein intelligent zu bezeichnen, sei irreführend. Denn auch diese Systeme würden auf spezielle Aufgaben trainiert, bloß auf eine größere Zahl davon. „Die Forschung steht hier vor einer Mauer“, sagt Piater.
Wie hoch diese Mauer derzeit noch ist, zeigt eine Warnung der Weltgesundheitsorganisation WHO vom 18. April von ihrem eigenen Diagnose-Chatbot S.A.R.A.H. Das auf KI beruhende Diagnosesystem für Krankheiten gäbe leider immer wieder falsche Auskünfte, berichtete der Nachrichtensender Bloomberg, und die Antworten basierten auf einem vielfach um Jahre veralteten medizinischen Kenntnisstand. Die Herrschaft der Künstlichen Intelligenz über den Menschen ist also wohl – wenn überhaupt – ein Projekt für das nächste Jahrhundert.
Dir hat dieser Beitrag besonders gut gefallen oder du hast Hinweise für uns - sag uns deine Meinung unter feedback@wienerzeitung.at. Willst du uns helfen, unser gesamtes Produkt besser zu machen? Dann melde dich hier an.
Infos und Quellen
Genese
Der Unterschied zwischen menschlicher und künstlicher Intelligenz interessiert die Autorin schon lang, weswegen sie sich immer wieder damit auseinandersetzt.
Gesprächspartner
Justus Piater, Digital Science Center und dem Institut für Informatik der Uni Innsbruck. Das wissenschaftliche Programm des Spezialisten für Bildverarbeitung verfolgt das Ziel, autonome Systeme zu konstruieren, die sich in unstrukturierten, für Menschen gemachte Umgebungen zurechtfinden und nützlich machen, beispielsweise für wissenschaftliche Exploration, Katastrophenhilfe oder in der Form von Haushaltsrobotern.
Andreas Eckhardt, Professor für Wirtschaftsinformatik – Digitale Transformation, Institut für Wirtschaftsinformatik, Produktionswirtschaft und Logistik, Universität Innsbruck. Der thematische Schwerpunkt der Forschungsarbeit des Wirtschaftswissenschaftlers liegt auf der Digitalisierung von Organisationen und unternehmerischen Wertschöpfungsprozessen.
Daten und Fakten
Künstliche neuronale Netze (KNN) sind mathematische Modelle, die beim maschinellen Lernen eingesetzt werden. Ihre Strukturbildung ist von den Nervenzellen im menschlichen Gehirn abgeleitet. KNN können aus komplexen und scheinbar zusammenhanglosen Informationen lernen. Einige erfolgreiche Anwendungen sind Bilderkennung und Spracherkennung.
„Stellen Sie sich die Beschreibung eines Hauses vor. Sie hat viele Facetten, wie die Umgebung, die Räume oder die Funktionen. Die einzelnen Begriffe sind in einem Vektorsystem angeordnet und verwandte Wörter liegen näher beieinander: Badewanne liegt näher bei Waschbecken, Tisch näher zu Stuhl, Ofen näher zu Mikrowelle“, sagt Andreas Eckhardt, Professor für Wirtschaftsinformatik der Uni Innsbruck. Zwischen verwandten Begriffen werden Verbindungen geknüpft und es gibt bestimmte Wahrscheinlichkeiten, dass ein Wort eher auf das andere folgt und mit ihm inhaltlich verwandt ist. Was also folgt auf das Wort Dusche? Vielleicht eine Tür, womit wir bei Duschtür sind.
Das System durchsiebt seine Datenbank und je besser eine Idee ist, was die notwendige nächste Folge bei KI-generierten Texten ist, desto besser ist die KI. Wenn das System sich einer Sache nicht sicher ist, fragt es seine Nutzer:innen, die die KI-generierten Vorschläge bestätigen, korrigieren und verbessern. Je mehr Informationen wir dem System geben, desto informierter ist es und desto präziser sind die Antworten.
Die Zielsetzung ist ein immer tieferes, präziseres neuronales Netz, das Large Language Model genannt wird.
Osmose ist der einseitige Durchgang von Flüssigkeiten durch eine Membran in organischen Organismen.
Quellen
Max Planck Gesellschaft: Symbiose zwischen menschlicher und künstlicher Intelligenz
Technische Universität Wien: Ist künstliche Intelligenz (KI) der bessere Mensch?
Bloomberg: WHO’s New AI-Powered Chatbot Is Giving Wrong Medical Answers
Das Thema in der WZ
Das Thema in anderen Medien
NDR: Was unterscheidet künstliche Intelligenz von der menschlichen?
Süddeutsche Zeitung: Künstliche oder menschliche Intelligenz? ChatGPT vs. Brainpower
Planet Wissen: Künstliche Intelligenz und Wahrnehmung