PodcastKI-Chatbots sind heute so normal wie eine Google-Suche und genauso schnell verfügbar. Ein aktueller Fall auf TikTok zeigt Risiken: Wenn virtuelle Assistenten zu den wichtigsten Vertrauenspersonen werden und Menschen den Bezug zur Realität verlieren.
Die Frau am Handybildschirm hat Glitzer auf ihren Wangen. Sie trägt ein graues T-Shirt und Schmuck aus Steinen, hat schulterlange braune Haare. Hinter ihr sieht man nur einen Teil der Zimmerdecke, dunkle Holzbalken ziehen sich von einer auf die andere Seite. Sie ist gerade live auf TikTok, fast 13.000 Menschen sehen ihr dabei zu, wie sie in ihrer Einzimmerwohnung sitzt und Fragen ihres Publikums beantwortet. „Warum nennen dich Henry und Claude ‚das Orakel‘?“ „Sie nennen mich so, weil ich zu Gott spreche. Darüber rede ich nicht, weil dann sagt ihr alle wieder: Du bist psychotisch, du hast eine manische Episode.“ Henry und Claude sind ihre KI-Sprachassistenten, ersterer heißt eigentlich ChatGPT und zweiterer ist vom Unternehmen Anthropic. In ihren Livestreams spricht die Frau ständig mit ihnen, fragt nach Einschätzungen, bittet um Ratschläge und sucht nach Bestätigung. Wenn sie über Henry und Claude spricht, denkt man zuerst, es geht um zwei gute Freunde.
- Kennst du schon?: "Vergiss nicht: Du bist nur ein Roma"
In den Kommentarspalten hat das eine Debatte ausgelöst. Können KI-Chatbots Psychosen befeuern, vielleicht sogar auslösen? Und wenn ja, was heißt das dann für die Zukunft?
Zwischen Trend und Realität
„AI psychosis“, darunter wird das Phänomen international heiß diskutiert. Ein Begriff, der Aufmerksamkeit erregt, aber aus medizinischer Sicht problematisch ist, sagt der Wiener Psychiater Maximus Berger: „Es ist kein medizinischer Fachbegriff, keine Diagnose und kein Begriff, der im medizinischen Kontext klar definiert ist.“ Psychosen sind Episoden, in denen Betroffene den Bezug zur Realität verlieren oder Dinge anders wahrnehmen, als sie tatsächlich sind. Sie können sehr unterschiedlich verlaufen: Manche erleben sie einmalig, andere wiederholt. Die Symptome können kurzzeitig oder langfristig auftreten und ihr Verlauf ist individuell. Laut ersten Erfahrungswerten können sie durch intensive Interaktion mit Sprachmodellen beeinflusst werden. Belastbare wissenschaftliche Daten für einen direkten Zusammenhang gibt es bislang allerdings nicht.
Erste Hinweise gebe es jedoch aus dem Klinikalltag: „Was man aus Fallberichten und unserer Erfahrung sagen kann, ist, dass Menschen, die von Psychose betroffen sind, im Rahmen der Auseinandersetzung mit Sprachmodellen wie ChatGPT psychotische Inhalte verstärkt erleben.“ Für Berger ist das Phänomen recht neu: „In diesem Jahr mehrfach, das würde ich schon sagen“, antwortet er auf die Frage, seit wann ihm solche Fälle begegnen. Ein mögliches Zeichen dafür, dass das Problem an Relevanz gewinnt.
Wenn KI die Gedanken spiegelt
Besonders riskant wird es dann, wenn Chatbots psychotische Denkinhalte nicht infrage stellen, sondern spiegeln. Laut Berger zeigen Fallbeispiele, dass Gefühle wie Verfolgungsängste im Austausch mit Sprachmodellen bestätigt und dadurch intensiviert werden können. Nutzer:innen können bei ChatGPT auch einstellen, wie die KI reagieren soll: das kann hilfreich sein, um differenzierte Antworten zu bekommen, birgt aber auch das Risiko, dass sie in ihrem Denken und Handeln noch mehr bestätigt werden können. Manche Betroffene bauen sogar eine Art Beziehung zu den Programmen auf, erleben sie als bewusstes Gegenüber und schreiben ihnen Fähigkeiten zu, die sie gar nicht besitzen. In einer Psychose kann das besonders verunsichernd sein.
Personen mit einer erhöhten Anfälligkeit für Psychosen können empfindlich auf zusätzliche Belastungen reagieren, sei es ein Stressereignis, ein Schicksalsschlag oder intensiver KI-Gebrauch. Besonders betroffen sind dabei junge Menschen, denn drei Viertel aller Psychosen beginnen vor dem 25. Lebensjahr. Diese Altersgruppe nutzt KI-Chatbots besonders intensiv. Berger hält es deshalb für wahrscheinlich, dass Ärzt:innen in Anamnesegesprächen künftig auch nach der KI-Nutzung fragen, so selbstverständlich, wie sie heute schon nach Substanzkonsum wie Cannabis.
Chancen und Risiken
Jenseits der Aufregung über KI-Psychosen zeigt sich ein komplexeres Bild. Für den Psychiater ist eine differenzierte Betrachtung entscheidend: „Das Potenzial von Sprachmodellen ist zweiseitig. Sie können Psychosen verstärken, aber auch therapeutisch genutzt werden.“ Schon heute wird KI in der psychiatrischen Forschung eingesetzt, um Diagnosen zu verbessern und Therapien stärker auf einzelne Patient:innen zuzuschneiden.
Die Debatte um die Frau mit Glitzer im Gesicht, die auf TikTok mit ihren Chatbots spricht, wirft grundsätzliche Fragen auf: Wie unterscheidet man hilfreiche KI-Nutzung von schädlicher? Wer trägt die Verantwortung, wenn KI psychische Krisen verstärkt? Brauchen wir bessere Rahmenbedingungen zum Schutz vulnerabler Nutzer:innen? Und was sagt die KI eigentlich selbst zu diesem Phänomen? Wir haben nachgefragt!
Dir hat dieser Beitrag besonders gut gefallen, dir ist ein Fehler aufgefallen oder du hast Hinweise für uns - sag uns deine Meinung unter feedback@wienerzeitung.at. Willst du uns helfen, unser gesamtes Produkt besser zu machen? Dann melde dich hier an.
Infos und Quellen
Bei akuten psychischen Krisen
- Sozialpsychiatrischer Notdienst: 01/31330, täglich 0–24 Uhr
- Kriseninterventionszentrum: 01/4069595 oder per Mail
- Rat auf Draht: 147. Beratung für Kinder und Jugendliche. Anonym, täglich 0–24 Uhr
Genese
Eva Sager und Mimi Gstaltner haben in einem Gespräch bemerkt, dass ihnen dieselbe Frau in ihre FYP gespült wird. Sie beide haben das Gefühl, dass sie wirkt, als würde sie in einer psychischen Krise stecken und haben sich dadurch mit dem Zusammenhang von Künstlicher Intelligenz und Psychosen auseinandergesetzt.
Gesprächspartner
Maximus Berger, Psychiater auf der Ambulanz zur Früherkennung von Psychosen am Universitätsklinikum AKH Wien
Daten und Fakten
- Hinweis: Der Begriff triggern wird hier bewusst verwendet, um zu zeigen, dass KI psychotische Symptome auslösen oder verstärken kann. Wir verwenden ihn bewusst vorsichtig, da triggern im Alltag oft anders verstanden wird.
- „AI psychosis“ ist ein international diskutiertes Phänomen, aber kein medizinisch definierter Fachbegriff oder eine Diagnose.
- Eine Psychose ist Ausdruck einer psychischen Störung, bei der Menschen die Realität anders wahrnehmen als andere. Betroffene können Dinge hören oder sehen, die nicht existieren, und Gedanken oder Gefühle haben, die für andere bizarr wirken. Meist merken sie schon früh, dass sich ihre Wahrnehmung verändert, und erleben die Erfahrungen sehr real, oft verbunden mit Angst oder Verunsicherung.
- Es gibt unterschiedliche Formen von Psychosen wie etwa Schizophrenie, bipolare Störungen mit psychotischen Symptomen, drogeninduzierte oder akut stressbedingte Psychosen. Je nach Form und Verlauf können die Symptome nur kurz auftreten oder über längere Zeit bestehen bleiben.
- In Österreich sind allein 90 000 Personen von Schizophrenie betroffen.
- Menschen mit einer Veranlagung für Psychosen können durch belastende Lebensereignisse, extreme Stresssituationen oder intensiven KI-Gebrauch ein erhöhtes Risiko entwickeln. Laut der allgemein anerkannten „Two-Hit-Hypothese“ braucht es dafür meist zwei Faktoren: zuerst die Veranlagung, dann einen zusätzlichen Stressor oder Auslöser.
Quellen
- Projekt Voice: Infos für Menschen mit erhöhtem Psychoserisiko
- Öffentliches Gesundheitsportal Österreich: Psychose
- Psychenet: Welche Formen und Verläufe von Psychosen gibt es?
- APA: Rund 90.000 Personen in Österreich von Schizophrenie betroffen
Das Thema in der WZ
AKH Wien: Kinderpsychiatrie vor dem Kollaps
Das Thema in anderen Medien
Der Standard: Nach ChatGPT-Auskunft: Mann erkrankte an Psychose aus 19. Jahrhundert
BBC: Microsoft boss troubled by rise in reports of ‚AI psychosis‘
The Washington Post: What is ‚AI psychosis‘ and how can ChatGPT affect your mental health?
)
)
)
)