So viele globale Risiken wie heute hat die Welt nach einer Umfrage des Weltwirtschaftsforums (WEF) seit Jahrzehnten nicht erlebt. In seinem Bericht über globalen Risiken 2023 nannte das WEF am Mittwoch unter anderem die Inflation und Lebenshaltungskosten, Handelskriege, soziale Unruhen, geowirtschaftliche Konfrontationen und die Gefahr eines Atomkriegs.

Dazu kämen geringes Wirtschaftswachstum, Verschuldung, eine Abkehr von der Globalisierung, die praktisch schrankenlose Entwicklung potenziell gefährlicher Technologien und die Folgen des Klimawandels.

Das WEF hat wie jedes Jahr mehr als 1.200 Experten sowie Führungspersönlichkeiten aus Politik und Wirtschaft gebeten, die aus ihrer Sicht größten Risiken in eine Rangliste einordnen. Viele von ihnen nehmen ab 16. Jänner am traditionellen Jahrestreffen des WEF in Davos teil. Das WEF mit Sitz in Cologny bei Genf will nach seinen Statuten "den Zustand der Welt verbessern".

Rangliste der Bedrohungen

In den kommenden zwei Jahren sehen die Befragten steigende Lebenshaltungskosten als dringendstes Problem, gefolgt von Extremwetterereignissen, Kriegen und Konflikten sowie Versagen beim Eindämmen des Klimawandels und die Spaltung der Gesellschaft. Langfristig, über zehn Jahre, stehen die fehlenden Klimaschutz- und Anpassungsmaßnahmen, Unwetterkatastrophen und der Zusammenbruch der Ökosysteme auf den ersten vier Plätzen. Dahinter folgt das Risiko unfreiwilliger Migration. Das Risiko terroristischer Anschläge liegt auf Platz 32. Sowohl kurz- als auch langfristig halten die Befragten das Risiko von Cyberattacken für hoch (Platz 8).

"Zusammen sorgen (diese Risiken) für ein einmaliges, unsicheres und turbulentes Jahrzehnt", heißt es in dem Bericht. Fortschritte bei der Anwendung künstlicher Intelligenz und bei Hochleistungsrechnern (quantum computing) könnten helfen, einige Risiken etwa im Gesundheitsbereich zu mindern. Aber für viele Entwicklungen gebe es keinen rechtlichen Rahmen über die Anwendung. So könnten sie selbst zu Risiken werden, etwa bei militärischen Einsätzen.

Der Report erwähnt dies nicht, aber ein Beispiel wären so genannte Killerroboter: Maschinen, die einmal programmiert mit künstlicher Intelligenz und ohne menschliches Zutun Kriegsziele auswählen und beschießen. Seit Jahren verhindern Länder wie die USA, Russland und andere, die an solchen Entwicklungen arbeiten, internationale Richtlinien für den Einsatz solcher Technologien. (apa/dpa)