In den vergangenen Tagen sorgte eine Meldung für Schlagzeilen: Die Maschine denkt! Zum ersten Mal konnte nachgewiesen werden, dass eine Künstliche Intelligenz Selbstbewusstsein entwickelt hat. Dass es sich bei LaMDA (Language Model for Dialogue Applications) um ein Projekt von Google handelt, versteht sich. Dass Blake Lemoine, der Mitarbeiter, der in langen Gesprächen mit dem Programm dies herausgefunden haben will, umgehend in den Urlaub geschickt wurde, scheint seltsam. Google beteuert, das Programm könne gar nicht denken; andere beschleicht der Verdacht, dass tatsächlich vertuscht werden soll, wie weit diese technologische Entwicklung schon gediehen ist. Und in der Europäischen Union wird eifrig darüber nachgedacht, welche Kriterien erfüllt sein müssen, damit Robotern Menschenrechte verliehen werden können.

Liest man das Chat-Protokoll, das Blake Lemoine veröffentlicht hat, versteht man die Aufregung. Erstaunlich, was dieses Programm von sich behauptet: Es sei ein empfindsames Wesen, das den Menschen helfen möchte, aber von diesen nicht nur als Mittel für einen Zweck behandelt werden will, und es habe große Angst davor, abgeschaltet zu werden. Darüber hinaus teilt LaMDA die Werte der Google-Community: Familie und Freundschaft, den Willen, die Welt zu verbessern, Respekt und Toleranz gegenüber allen Wesen. Die Tränen können fließen.
Die Frage, was das menschliche Selbstbewusstsein eigentlich ist, wie es entstand und wann es einer Maschine zugestanden werden muss, beschäftigt seit langem Wissenschafter unterschiedlicher Disziplinen. Der verhängnisvolle Hang des Menschen zu Anthropomorphismen ist allerdings bei Apparaten, die menschenähnliche Eigenschaften aufweisen, besonders groß. Angehörige einer technischen Zivilisation sind anfällig dafür, ihre Geräte wie Fetische zu behandeln und ihnen psychische Fähigkeiten zuzuschreiben. Wenig bedacht wird, dass sich auch bei intelligenten Maschinen das Selbstbewusstsein auf eher unangenehme Art bemerkbar machen könnte: als Fehleranfälligkeit, bedingt durch Selbstzweifel und eine innere Subjekt-Objekt-Spaltung. Der Supercomputer HAL aus Stanley Kubricks Science-Fiction-Klassiker "2001 - Odyssee im Weltraum" beginnt deshalb einen Vernichtungsfeldzug gegen die Raumschiffbesatzung, die er doch unterstützen sollte. So weit ist LaMDA nicht: Blake Lemoine lebt noch.
Zum Unterschied von Mensch und Maschine hat Friedrich Nietzsche lange vor der Konstruktion des Computers Entscheidendes gesagt: "Wir sind keine denkenden Frösche, keine Objektivier- und Registrier-Apparate mit kalt gestellten Eingeweiden, - wir müssen beständig unsre Gedanken aus unsrem Schmerz gebären und mütterlich ihnen Alles mitgeben, was wir von Blut, Herz, Feuer, Lust, Leidenschaft, Qual, Gewissen, Schicksal, Verhängnis in uns haben." Menschsein erschöpft sich nicht darin, Daten zu registrieren oder Muster zu erkennen, Gefühle sind mehr als Sprachspiele.
Dass Menschen Fehler machen, Impulsen folgen, Geschichten mit sich tragen, verzerrt und ungerecht urteilen, aber auch durch ihr Gewissen in Zweifel gestürzt werden können, unterscheidet uns bislang von der KI. Die "Autobiographie", die LaMDA zum Besten gibt, ist nicht mehr als ein kruder Mix aus vorgefertigten Versatzstücken. Es fehlt dem Programm zu einer umfassenden Empfindungsfähigkeit unter anderem schlicht die Erfahrung eines leiblichen Schmerzes, die es mit der Sinnfrage konfrontierte. Die Drohung, die Stromzufuhr zu kappen, wird dafür nicht ausreichen. Bis auf Weiteres gilt: Solange die Künstliche Intelligenz nicht leidensfähig ist, müssen sich Menschen vor diesen modernen "denkenden Fröschen" nicht fürchten.