"Wiener Zeitung": Vor welche rechtlichen Herausforderungen stellt uns die Digitalisierung im Pflegebereich?

Maria Kletecka-Pulker: Es gibt viele Bereiche, in denen die Digitalisierung die Medizin und die Pflege verändern wird. Aus juristischer Sicht tun sich dabei spannende Fragen auf, von denen wir manche früher beantworten müssen als andere. Es gibt keinen Grund, sich vor der Digitalisierung zu fürchten, ich denke aber auch nicht, dass sie alle Probleme lösen wird. Ein Beispiel: Wir haben zurzeit einen akuten Pflegekräftemangel und einen Ärztemangel. Das Arbeitsumfeld ist für Pflegerinnen und Pfleger im Allgemeinen belastender geworden. Es ist schwieriger geworden, einen Arzt kurzfristig zu einem Patienten dazu zu holen. Hier kann die Digitalisierung durch Televisiten Abhilfe schaffen, vor allem in der Geriatrie. Ein Diplomkrankenpfleger ist beim Patienten vor Ort, kann aber einen Arzt per Telekonferenz dazuschalten und gemeinsam mit ihm mittels Teleanweisung und Telebefundung den Patienten betreuen.

Bedeutet das auch, dass die Pflegekräfte in Zukunft mehr dürfen als heute?

Die Frage "Wer darf was?" wird uns stark beschäftigen. Wir haben einen sehr strengen ärztlichen Vorbehalt. Nur unter ganz bestimmten Voraussetzungen darf die Pflegekraft ärztliche Tätigkeiten durchführen, zum Beispiel Blut abnehmen oder Medikamente verabreichen. Doch es gibt bereits heute tolle mobile Geräte, mit denen man viele Untersuchungen vor Ort machen kann, vom EKG bis zum Ultraschall. Es wird immer mehr und immer bessere derartige Tools geben. Wir sollten die mobile Pflege aufwerten und die rechtlichen Möglichkeiten nutzen, damit Diplompfleger bei Patientenbesuchen mehr Handlungsspielraum haben. Dadurch könnte die Versorgungsqualität trotz Ressourcenverknappung deutlich verbessert werden. Das Berufsbild und auch das Ansehen des Diplompflegers werden sich durch diese Entwicklungen verändern.

Das Medizinrecht steht vor großen Herausforderungen. - © Christoph Liebentritt
Das Medizinrecht steht vor großen Herausforderungen. - © Christoph Liebentritt

Wie gehen wir rechtlich damit um, wenn in Zukunft künstliche Intelligenz (KI) in die medizinische Behandlung einbezogen wird oder eingreift?

Das ist eine ganz große Debatte unter uns Juristen: Wer haftet für eine Entscheidung, die von einer künstlichen Intelligenz getroffen wurde? Es heißt oft, das System mache ja nur Vorschläge, die letztgültige Entscheidung läge weiterhin beim Arzt. Doch wer das sagt, verkennt völlig, dass die riesigen Datenmengen, aufgrund derer das System diese "Vorschläge" macht, für den einzelnen Arzt nicht mehr zu überblicken sind. Der Arzt wird dieser Blackbox also zwangsläufig vertrauen müssen und den Diagnose- oder Therapievorschlag der KI übernehmen. Wer haftet also? Unter Juristen des Europäischen Parlaments gibt es die Überlegung, eine eigene Rechtspersönlichkeit für KI-Systeme zu schaffen, mit der man Verträge abschließen kann. Man könnte dann einen Haftungsfonds einrichten, auf den man im Fall des Falles zurückgreift.

Sie wirken skeptisch.

Ich sehe die Gefahr, dass eine solche Regelung einem Freibrief für die KI-Entwickler nahekommt. Die Argumentation der Hersteller ist ja üblicherweise: Wir sind für die Entscheidungen der künstlichen Intelligenz nicht verantwortlich, weil diese sich nach der Auslieferung weiterentwickelt und autonome Entscheidungen ganz ohne unser Zutun trifft. Dieser Position sollte man keinen Vorschub leisten. Wenn die Hersteller meinen, sie könnten für die Entscheidungen ihrer eigenen Maschinen nicht die Verantwortung übernehmen, dann finde ich es umso bedenklicher. Man könnte vielleicht eine Art Parallelsystem aufbauen, wo sich dann die beiden KIs gegenseitig kontrollieren. Die nächste Frage wäre dann, wo und wann reagiert werden soll. Auf jeden Fall braucht es noch viele Diskussionen und viel Nachdenken. Ich kenne die Lösung auch noch nicht.

Ein anderes Feld sind Gesundheits-Apps auf dem Smartphone. Auch die werden immer intelligenter. Wie kann man diese Entwicklung rechtlich einhegen?

Grundsätzlich finde ich diese Entwicklung sehr spannend. Gute Gesundheits-Apps können die Patientensicherheit in Zukunft zweifellos erhöhen, wenn zum Beispiel die gesammelten Daten dem Gesundheitssystem zur Verfügung gestellt werden. Wie jede positive Entwicklung hat aber auch diese ihre Schattenseiten. Zunächst kann der Benutzer die Daten falsch erheben, ob absichtlich oder nicht. Wie man sicherstellen kann, dass die Daten, zum Beispiel von einer Fitness-App, wirklich valide sind, ist eine offene Frage. Gleichzeitig sehe ich eine Entwicklung als sehr wahrscheinlich, dass Versicherungen günstigere Prämien an Menschen vergeben werden, die via Smartphone bestimmte Fitnesslevels vorweisen können, auch wenn man dies derzeit ablehnt.

Bekommt man in Zukunft vielleicht vom Arzt eine App verschrieben?

Es gibt heute schon sehr gute Apps, die die Patienten in ihrer Gesundheitskompetenz stärken. Zum Beispiel "MySugr": Der Diabeteskranke kann seinen Blutzucker damit perfekt einstellen. Die Rolle der Ärzte wird sich da sicherlich verändern. Zumindest bei manchen Krankheiten wird es so sein, dass ein Arzt sagen kann: Verwende diese App, die hilft dir. Entscheidend ist aber die entsprechende Datensicherheit. Würde eine solche App gehackt werden und falsche Werte angeben, könnte dies erheblichen Schaden auslösen.

Und was machen wir mit all den Lifestyle-Apps, die möglicherweise nicht so nützlich sind wie Gesundheits-Apps, aber trotzdem viele Daten sammeln?

Dieses Problem wird zweifellos immer größer. Denn die Unternehmen hinter Lifestyle-Apps stammen ja aus aller Welt. Der DNA-Test der Firma 23andMe beispielsweise ist mittlerweile sehr populär. Viele Menschen geben ohne Bedenken eine unglaubliche Menge ihrer genetischen Daten an ein privates Unternehmen weiter. Wir müssen dafür sorgen, dass es einen rechtlichen Rahmen gibt, in dem Menschen vor einem möglichen Missbrauch ihrer Gesundheitsdaten geschützt werden. Hier besteht dringender Handlungsbedarf auf europäischer Ebene, nationale Lösungen werden nicht reichen. Darüber hinaus sollte der richtige Umgang mit medizinischen Daten in den Schulen vermittelt werden.

Patienten stehen also vor einem Dilemma: Man kann in Zukunft von der Digitalisierung der Medizin stark profitieren, der Schutz der eigenen Daten ist aber nicht wirklich garantiert.

Sehen Sie sich an, mit welchem Nachdruck viele große Unternehmen in den Gesundheitsbereich investieren. Da wird sich vieles verschieben. Ich kann mir ein düsteres Szenario vorstellen, wo ein Patient mit einer seltenen Krankheit den Therapievorschlag nicht vom Arzt bekommt, sondern von einem privaten Unternehmen, das bereits seit Jahren Daten in diesem Bereich gesammelt und ausgewertet hat. Und mit der lebensrettenden Information wird dann Profit gemacht. Wir müssen in Europa dafür sorgen, dass möglichst viel medizinisches und technisches Know-how in der öffentlichen Hand bleibt und der medizinische Fortschritt nicht den großen Technologie-Firmen allein überlassen wird.

Andersherum gefragt: Darf man sich als Patient der digitalisierten Medizin verweigern?

Es wird wahrscheinlich eine gewisse Strömung in diese Richtung geben und eine neue vulnerable Gruppe: "Analoge" Patienten, die ihre Gesundheitsdaten nicht teilen wollen oder können. Da stellt sich dann die Frage: Wie stellen wir sicher, dass diese Menschen die gleich gute Behandlung bekommen wie all jene, die digitale Tools nützen und ihre Daten zur Verfügung stellen? Dürfen "Verweigerer" von den Vorteilen profitieren, die aus der Erforschung der Daten aller anderen Menschen gewonnen wurden? Aus ethischer Sicht sage ich ja. Rund um das Thema Big Data ist ja alles gar nicht so neu, wie oft getan wird. Manche rechtlichen und ethischen Fragen haben sich auch schon in anderen medizinischen Zusammenhängen gestellt, etwa bei Organspenden: Auch Menschen, die selbst kein Organ spenden würden, bekommen selbstverständlich eines, wenn sie es brauchen.

Maria Kletecka-Pulker am Institut für Ethik und Recht in der Medizin an der Universität Wien. - © Christoph Liebentritt
Maria Kletecka-Pulker am Institut für Ethik und Recht in der Medizin an der Universität Wien. - © Christoph Liebentritt

Welche Schritte sollten auf dem Weg in diese offen scheinende Zukunft als Nächstes gesetzt werden?

Die Verantwortlichkeiten müssen im Sinne der Patienten- und Mitarbeitersicherheit klar geregelt werden: Wer ist verantwortlich, wenn ein Patient einen Schaden erleidet aufgrund einer maschinenbasierten Entscheidung eines selbstlernenden Systems? Dürfen Ärzte und Pfleger künftig noch Entscheidungen allein treffen, ohne digitale Unterstützung? Was in Österreich meines Erachtens fehlt, ist ein Register aller Systeme, die heute schon künstliche Intelligenz im Gesundheitsbereich anwenden. Derzeit wird viel entwickelt, aber niemand weiß, wo genau all diese Systeme zum Einsatz kommen und mit welchen Datensätzen sie arbeiten. Diese Transparenz ist im Sinne der Sicherheit dringend erforderlich.

Dieser Beitrag erschien zuerst in der Printausgabe der Digitalen Republik vom 18. Dezember 2019.