Ob im Internet oder am Handy, ob in Logistik, Transport oder Gütererzeugung, beim Rasenmähen oder Staubsaugen, beim Bezahlen von Haushaltsrechnungen oder beim Buchen von Reisen: Algorithmen sind ständig am Werk. Sie berechnen effiziente Lösungen, optimieren Arbeit, geben Standards vor und beurteilen Menschen. Wer zu schnell fährt, wird vom Computer erfasst und bestraft. Wer nach Paris fliegt, dem schlägt die Buchungsmaschine auch Venedig, London und Rom, nicht aber Mannheim oder Altaussee vor.

Algorithmen sind logisch, Menschen nicht immer. Doch der Mensch passt sich an. Das könnte die Netzwerke im Gehirn neu verknüpfen. - © adobestock/Siarhei
Algorithmen sind logisch, Menschen nicht immer. Doch der Mensch passt sich an. Das könnte die Netzwerke im Gehirn neu verknüpfen. - © adobestock/Siarhei

Maschinen sind logisch, wir Menschen nicht immer. Dennoch müssen wir uns an die kalte Maschinen-Logik anpassen. Das setzt uns zu. Die Allgegenwart von Algorithmen und Künstlicher Intelligenz verändert den Menschen ganz zwangsläufig, sagte die britische Philosophin und Roboter-Ethikerin Paula Boddington am Rande der Technologiegespräche in Alpbach zur "Wiener Zeitung".

"Wiener Zeitung": Künstliche Intelligenz (KI) ist allgegenwärtig: Wir erledigen immer mehr Dinge online, während Algorithmen unser Nutzer-Verhalten zu einem Bild zusammenfügen. Verändert KI die Menschen?

Paula Boddington geboren 1956 in London, ist Senior Research Fellow an der School of Biomedical Sciences der Universität Cardiff. Die Philosophin unterrichtete Angewandte Ethik an der Universität Bristol, bevor sie sich an der Universität Oxford auf Roboter-Ethik spezialisierte. In ihrem Buch "Towards a Code of Ethics for Artificial Intelligence" analysiert Regeln im Umgang mit Künstlicher Intelligenz. Bei den Technologiegesprächen des Forum Alpbach referierte sie in einem Arbeitskreis des Wissenschaftsministeriums und des Wissenschaftsfonds FWF. - © bmbwf/fwf/Pongovschi
Paula Boddington geboren 1956 in London, ist Senior Research Fellow an der School of Biomedical Sciences der Universität Cardiff. Die Philosophin unterrichtete Angewandte Ethik an der Universität Bristol, bevor sie sich an der Universität Oxford auf Roboter-Ethik spezialisierte. In ihrem Buch "Towards a Code of Ethics for Artificial Intelligence" analysiert Regeln im Umgang mit Künstlicher Intelligenz. Bei den Technologiegesprächen des Forum Alpbach referierte sie in einem Arbeitskreis des Wissenschaftsministeriums und des Wissenschaftsfonds FWF. - © bmbwf/fwf/Pongovschi

Paula Boddington: Ich fürchte ja. Schon allein der Name ist nicht besonders geglückt, da menschliche und künstliche Intelligenz ganz unterschiedlich funktionieren. Ich halte es mit Neil Lawrence (Professor für Maschinenlernen der Universität Sheffield, Anm.), dem zufolge der Unterschied jenem zwischen einer echten Pflanze und einer Pflanze aus Plastik entspricht. Obwohl sie eine Plastikpflanze und keine Rose in voller Blüte ist, bezaubert Künstliche Intelligenz uns derartig, dass wir uns selbst nach ihren Standards beurteilen.

Welche Standards sind das?

Effizienz, Geschwindigkeit, Beständigkeit, Folgerichtigkeit und Reproduzierbarkeit sind was wir von Maschinen erwarten. Es sind gute, einförmige Standards für Algorithmen im Smartphone oder auf den Servern sozialer Medien, aber keine für Menschen. Und dennoch wurden Soziale Medien in einer Art und Weise entworfen, dass sie Suchtverhalten auslösen. Wir sind soziale Wesen, die kommunizieren. Sie zapfen die schwächsten Aspekte der menschlichen Psychologie an, um uns zu verändern. Im Endeffekt beurteilen wir uns selbst danach, welches Verhalten die Maschine von uns erwartet. Nehmen wir etwa an, jemand will einen Bankkredit. Ein Mensch würde einem Kunden, der seine Schulden pünktlich bezahlt, einen solchen gewähren. Ein Algorithmus würde das nicht unbedingt tun, weil er anderen Parametern folgt. Der Mensch muss somit digitalen Vorgaben entsprechen, die er vielleicht nicht einmal kennt.