Zum Hauptinhalt springen

"Papagei" mit gefährlichem Potenzial

Von Michael Schmölzer

Politik

Begeben wir uns in Geiselhaft allmächtiger Chatbots? In Dürnstein wird ein brandaktuelles Thema diskutiert.


Wie viel Zukunft hat das menschliche Gehirn? Diese Frage war Thema einer einleitenden Diskussionsrunde im Rahmen des heurigen Symposions Dürnstein.

Die grundlegende Fragestellung ist schon angesichts der Tatsache, dass Künstliche Intelligenz (KI) wie ChatGPT - ein Programm, das Texte erzeugt - gerade jetzt weltweit für Furore sorgt, mehr als berechtigt. Bekommen wir es doch scheinbar mit einer "neuen Weltmacht" zu tun, wie der "Spiegel" zuletzt titelte.

Oder sind die vorgeblich allwissenden und allmächtigen Chatbots bei näherem Hinsehen nichts anderes als "stochastische Papageien", Maschinen, die völlig unreflektiert alles wiedergeben, mit dem sie gefüttert wurden? Die neben überzeugenden Resultaten auch reichlich Unsinn produzieren, wie Ursula Baatz, Wissenschaftsjournalistin und langjährige Kuratorin des Symposions, in ihrem Eingangsstatement anführt?

Voller Vorurteile

Ein Befund lautet, dass Künstliche Intelligenz, von Menschen gefüttert und programmiert, rassistische und sexistische Vorurteile reproduziert - ein Umstand, der bei Google bekannt ist, dort aber weitgehend verdrängt wird. Giovanni Rubeis, Professor für Biomedizinische Ethik, wies in Dürnstein ganz grundlegend darauf hin, dass "Künstliche Intelligenz" seiner Ansicht nach weder "künstlich" noch "intelligent" sei. "Der Begriff stört mich", so der Wissenschafter.

Tatsächlich handle es sich nur um bestimmte Funktionen, wie Adelheid Kastner, Primarärztin für Psychiatrie, anführt. Es sei "viel menschliche Intelligenz" nötig, um "die künstliche" einzugrenzen. Es müsse rasch ein Regelwerk geschaffen werden, um die Auswirkungen zu minimieren. Künstliche Intelligenz stelle die "dritte große Bedrohung hinter Russland und China" dar. Sie biete in jedem Fall Möglichkeiten, die öffentliche Meinungsbildung stark zu beeinflussen.

Moderatorin Mari Lang, Bioethiker Giovanni Rubeis, Psychiaterin Adelheid Kastner (von links): Künstliche Intelligenz birgt neben Chancen enorme Risiken für die Menschheit.
© Michael Schmölzer

Michael Mayrhofer, Professor für öffentliches Recht, sieht hier "Chancen und Risiken" gleichermaßen. Das Risiko, dass demokratische Systeme untergraben werden, ist für ihn "extrem hoch". Für den Juristen sind "Leitlinien" notwendig, um das neue Phänomen zu regulieren. Es müsse gesichert sein, dass das Recht auch in Zukunft vom Volk ausgehe, und es müsse bestimmt werden, wo welche Technik eingesetzt werden dürfe, wo es Verbote geben und wo ein sinnvoller Rahmen geschaffen werden müsse.

Die EU in Verzug

In der Tat arbeitet die EU seit zwei Jahren an einer Regulierung von Künstlicher Intelligenz. Grundsätzlich sollen KI-Anwendungen unterschiedlichen Risikogruppen von "Minimal" über "Hoch" bis "Inakzeptabel" zugeordnet werden. Je nach Einstufung müssen die Anbieter Sicherheits- und Transparenz-Anforderungen erfüllen. Eines der Probleme besteht allerdings darin, dass die Politik hier, wie in anderen Bereichen auch, den Entwicklungen stark hinterherhinkt.

Sabine T. Köszegi, Professorin für Arbeitswissenschaft, spricht von einem "Race against the machine". Sie sieht Programme wie ChatGPT allerdings vergleichsweise positiv, die Technologie habe das Potenzial, "Menschen zu ermächtigen". So sei es nun für alle möglich, "super Bewerbungsschreiben" zu verfassen oder Homepages zu kreieren. "KI könnte ein Tool der Demokratisierung sein." Sie sieht aber ebenfalls die Gefahr, dass wir von den Anwendungen "überrollt werden".

Rubeis betont jedenfalls, dass es sich bei KI keinesfalls um eine "höhere Instanz" handle. Die Chatbots, programmiert von "tausenden Clickworkern", würden vielmehr ein schlechtes Licht auf die Fähigkeiten menschlicher Intelligenz werfen. So können KI-Systeme einmal "Gelerntes" nicht wieder "verlernen", wie Köszegi betont, Verzerrungen und Diskriminierungen seien nicht mehr zu beseitigen.

Für die Psychiaterin und Buchautorin Kastner ist jedenfalls klar, dass wir schon jetzt "auf einer Schiene sind, die uns ganz viele Probleme schafft". KI übe Druck auf alle aus, immer perfekter sein zu müssen. "Das macht das Leben noch anstrengender." Immer mehr Menschen würden sich als Reaktion vom Glauben an die Wissenschaft verabschieden, was etwa bei der Bekämpfung von Pandemien Probleme schaffe. "Viele sind so weit, dass sie an gar nichts mehr glauben." Das Problem der Überlastung bestehe darin, dass sich das menschliche Gehirn und die Wahrnehmungsfähigkeit in den letzten 2.000 Jahren nicht verändert haben, die Menge an Information aber exponentiell gestiegen sei. Viele würden nun auf einfache Lösungen und "schlichte Mythen" zurückgreifen, was dann auch "in Parteiprogrammen demagogisch wirksam" werde. Für Kastner ist klar, dass wir im
Fall KI schon jetzt einen hohen Preis zahlen.

Doch nicht sehr klug

Stellt sich die Frage, wie etwa auf sogenannte "Deep fakes" reagiert werden kann. Seriöse Medien sind eine Antwort, wie Mayrhofer betont. Abseits davon könne KI, sinnvoll eingesetzt, dem Menschen viel unnötige Arbeit und Mühsal ersparen. Etwa im Medizin-Bereich, wo Ärzte von der Schreibarbeit befreit werden und dem Patienten mehr Aufmerksamkeit zuwenden könnten. Das Bestreben, Menschen durch KI ersetzten zu wollen, ist jedenfalls der falsche Ansatz.

Oder wie mit Dummheit umgehen? Wobei Dummheit für die Psychiaterin Kastner in der "bewussten Verweigerung der Benutzung des eigenen Gehirns" besteht. Dummheit bestehe auch in der Verweigerung von Selbstreflexion. Dass KI nicht besonders klug ist, zeigt sich jedenfalls schon daran, dass die Systeme alle Texte mit denen sie "gefüttert" werden, gleich gewichten. Egal, ob es sich
um einen Facebook-Eintrag oder einen wissenschaftlichen Artikel handelt.