Helga Nowotny, weltweit führende Wissenschaftstheoretikerin und ehemalige Präsidentin des Europäischen Forschungsrats, hat im vergangenen September ein neues Buch veröffentlicht: "In AI We Trust: Macht, Illusion und Kontrolle prädiktiver Algorithmen" (Polity Press, 2021).

Barbara Prainsack ist Leiterin des Instituts für Politikwissenschaft und der interdisziplinären Forschungsplattform "Governance of Digital Practices" an der Universität Wien. - © privat
Barbara Prainsack ist Leiterin des Instituts für Politikwissenschaft und der interdisziplinären Forschungsplattform "Governance of Digital Practices" an der Universität Wien. - © privat

Neben der Frage, wie unsere Gesellschaft mit den Versprechen der Künstlichen Intelligenz (Artificial Intelligence - AI) umgehen soll, kann man einiges aus diesem klugen Buch lernen: Wir sind so sehr darauf fokussiert, die Zukunft vorherzusagen und zu kontrollieren, dass wir vergessen, sie zu gestalten. Wie man das macht, stand auch im Zentrum eines rezenten Wissenschaftsgesprächs mit Nowotny im Bruno Kreisky Forum für internationalen Dialog.

Zuerst einmal: Zahlen sind nicht alles. Politische Entscheidungsträger wollen Zahlen, um Maßnahmen zu rechtfertigen. Medien zeigen mit Statistiken, wie sich die politische Stimmung im Land oder die Wirtschaft entwickelt.

Zahlen signalisieren Präzision. Wenn aber ein politisches oder gesellschaftliches Problem ausschließlich mit "harten Zahlen", erklärt, vorhergesagt und formuliert wird, dann verlangt es auch nach einer technischen Lösung. Die praktischen Folgen davon sind politische Maßnahmen, die zwar beispielsweise aus epidemiologischer Sicht sinnvoll sind, die aber die Möglichkeiten und die Bereitschaft der Menschen, sie einzuhalten, vergessen. Sie vergessen die sozialen, wirtschaftlichen und auch psychologischen Faktoren, die das menschliche Verhalten formen und sich einer präzisen Simulation entziehen.

Zudem, argumentiert Nowotny, bestehe zwischen der Logik algorithmischer Vorhersagen einerseits und der Politikgestaltung andererseits immer ein Spannungsverhältnis: "Politische Entscheidungen beinhalten in der Regel Abwägungen zwischen mehreren, oft unvereinbaren Zielen und Interessen." Algorithmen hingegen tolerieren keine Mehrdeutigkeit.

Gerade an der Schnittstelle von datenbasierter Vorhersage und politischen Handlungsoptionen braucht es daher andere Formen des Wissens und der Expertise.

Folgt man Nowotnys Argumentation, so erfordert zukunftsbezogenes Handeln nicht nur Zahlen und Präzision, sondern auch die Berücksichtigung von Ambivalenz und Komplexität - und der menschlichen Natur.

Wir brauchen ein "Kathedralen-Denken". Die Menschen, die die Kathedralen, die wir heute besuchen, seinerzeit geplant und gebaut haben, wussten, dass sie selbst die Fertigstellung nicht mehr erleben würden. Zeit spielte damals nicht dieselbe Rolle wie heute: Man dachte in Jahrhunderten, nicht in Legislaturperioden.

Ein solches "Kathedralen-Denken" wird auch heute zur Bewältigung aktueller Krisen wie etwa des Klimawandels benötigt. Dies bedeutet nicht nur langfristiges Denken und Planen, sondern auch die Integration von Expertise aus unterschiedlichen Bereichen der Wissenschaft und Praxis - ein wichtiger Auftrag nicht nur für die Wissenschaftspolitik, sondern für die Politik im Allgemeinen. Denn wenn wir das Denken über die Zukunft auf den Versuch reduzieren, sie auf der Grundlage algorithmischer Systeme vorherzusagen, entmachten wir uns selbst.