Zum Hauptinhalt springen

Das Dilemma des Vertrauens in die Technik

Von Eva Stanzl

Wissen

Warum wir Apps nutzen, obwohl wir wissen, dass sie uns ausspionieren.


Wenn ein digitaler Service gratis ist, ist man selbst das Produkt, könnte man sagen, da die Hersteller sich an unseren Daten bereichern. Doch obwohl wir wissen, dass sie uns ausspionieren, laden wir jede Menge Apps herunter, um Reisen zu buchen, Flugtickets zu kaufen, Sport zu betreiben oder zu spielen. Der Denkprozess dahinter folge widersprüchlichen Abläufen, berichteten Neurologen bei einem Fachkongress diese Woche in Wien. Die internationale Tagung namens "NeuroIS-Retreat" widmete sich der Vertrauensbildung zwischen Mensch und Maschine - eine schwierige Beziehung, die mit einer Unterströmung des Unwohlseins einhergehe, sagte der US-Neurologe Fred Davis.

An der Texas Tech University untersucht Davis im Auftrag von Technologiekonzernen, die Marktanteile bei Apps gewinnen wollen, was im Gehirn beim Herunterladen dieser kleinen Dienstleistungsprogramme passiert. Am aktivsten ist das Zentrum für visuelle Verarbeitung, weswegen das Design eine enorme Rolle spielt. Das Belohnungssystem ist wiederum mit der Nützlichkeit der App beschäftigt und das Executive-Netzwerk, das unser Arbeitsgedächtnis fokussiert, schätzt ab, wie leicht sie zu bedienen ist. "Die Entscheidung, eine App herunterzuladen - der Download ist die wichtigste Hürde für die Hersteller - fällt schnell und intuitiv", berichtet Davis.

Zugleich empfinden wir aber ein Unwohlsein, weil wir wissen, dass Apps uns ausspionieren und unsere Daten abziehen, oder weil wir fürchten, bestohlen oder gehackt zu werden. "Die Dynamik ist die eines Kompromisses zwischen dem Wunsch, sich mit der App gewisse Abläufe zu vereinfachen, und den Bedenken", so Davis. Im sogenannten Salienz-Netzwerk wägen wir daher ab: Wie sehr unterstützt uns die App dabei, etwas Dringendes zu erledigen? Haben wir Vertrauen in den Anbieter, dass er unsere Daten nicht gegen uns verwendet?

Dynamik des Kompromisses

Menschen zu vertrauen ist evolutionär gelernt. Wir sind geübt darin, anhand von Gesichtsausdruck, Mimik und Gestik zu erkennen, mit wem wir am ehesten kooperieren können. Vertrauen macht uns verletzlich und dafür erwarten wir die Belohnung, dass die Person des Vertrauens uns ebenso gutwillig gegenübersteht wie wir ihr. Freilich können wir vom anderen enttäuscht werden, aber wir sind in der Lage, einen Vertrauensmissbrauch zu verzeihen.

Vertrauen kennt verschiedene Komponenten und Stadien, an denen unterschiedliche Gehirnregionen beteiligt sind. "Zuerst versuche ich, mit einer fremden Person zu interagieren, indem ich mir ausrechne, was mich das Vertrauen in sie kosten würde. Wenn ich jemanden besser kenne, beruht mein Vertrauen auf Erfahrungswerten. Und wenn ich meinem Lebenspartner vertraue, hat das etwas mit meiner Identität zu tun", erklärt Frank Krueger von der George Mason University in Fairfax im US-Staat Virginia.

Auch im Internet gibt es diese Stadien: Ich will etwas kaufen, muss Geld auf den Tisch legen und dazu der Website vertrauen, denn es kann sein, dass Sie mir das Produkt gar nicht schicken. Die zunehmend intensivere Digitalisierung mit ihren virtuellen Metaversen wird immer mehr Entscheidung abverlangen, ohne einem Gegenüber ins Gesicht schauen zu können.

Um Vertrauen in Automaten zu fassen, müssen wir recherchieren, wer die anderen Kunden sind, wie zufrieden sie waren und welchen Ruf das Unternehmen hat. Enttäuscht werden können wir aber trotzdem. Doch wie den Menschen können wir auch Online-Anbietern verzeihen und über manches hinweg sehen. "Das Gehirn überschreibt Enttäuschungen und hofft, dass sie nicht wieder passieren, und zwar umso öfter, je größer die Abhängigkeit ist", sagte Krueger und nannte das Beispiel des russischen Präsidenten und Energielieferanten Wladimir Putin, mit dem Europa auch nach dessen Einmarsch in die Krim Beziehungen pflegte. "Die Amygdala wägt zwischen der erwarteten Belohnung und der Gefahr, betrogen zu werden, ab."

Vertrauen zwischen zwei Personen baut sich auf, wenn diese sich austauschen wollen und Gegenseitigkeit erwarten. Vertrauen in Algorithmen ist einseitig und beinhaltet das "Paradoxon der Privatsphäre", sagte Davis. "Wir haben eine Aversion gegen Verletzungen der Privatsphäre, sind aber zugleich bereit, diese Information zu teilen."

Gehirn betrügt sich selbst

Wer etwa eine Gesundheitsapp nutzen will, die es erleichtert, fit zu bleiben, muss darauf vertrauen, dass der Hersteller seine Daten nicht missbräuchlich verwendet, um zu instrumentalisieren und zu schaden. Wissen können wir das freilich nicht. Nicht einmal die Programmierer wissen, wie selbstlernende Algorithmen, die heute auf jeder Website individuelle Angebote erstellen, tatsächlich funktionieren. Echtes Maschinenlernen kann nicht zur Gänze erklärt werden, was kühne Thesen sprießen lässt, wie die derzeitige Debatte, ob Maschinen Bewusstsein haben, obwohl sie nicht aus Fleisch und Blut sind, durchaus beispielhaft zeigt.

"Das ist ein Dilemma. Denn die Menschen haben eine natürliche Tendenz, verstehen zu wollen, was passiert", erläuterte Kongressorganisator René Riedl von der Fachhochschule Oberösterreich. "Wenn sie etwas nicht verstehen, fühlen sie sich unwohl - und verzichten mitunter auf wertvolle Information. In anderen Fällen vertrauen sie der Künstlichen Intelligenz viel zu sehr und folgen schlechtem Rat", so Riedl.

Bequemlichkeit ist sicherlich ein Faktor, der die Akzeptanz digitaler Technologien beeinflusst. Möglicherweise betrügt das Gehirn sich selbst, indem es ausblendet, was es nicht versteht, und mit dem so entstehenden Unwohlsein zu leben lernt.