Datenschutz: Ein heimisches Start-up entwickelt fiktive, anonyme Online-Kopien von Probanden.
Wien. 9,95 Euro mit der Bankomatkarte bei Billa bezahlt. Mit Uber nach Hause gefahren. "Jessica Jones" auf Netflix geschaut. Das Urlaubsfoto der besten Freundin auf Facebook markiert.
Jeder Mensch hinterlässt täglich eine Fülle digitaler Fingerabdrücke und Spuren. Diese sind nicht nur für die Werbewirtschaft ein immenser Reichtum. Zahlreiche Applikationen-Betreiber verdienen zum Beispiel Geld damit, die Daten ihrer Nutzer an Marktforschungsinstitute zu verkaufen. Diese Daten erlauben es, Rückschlüsse über die Identität, unsere Vorlieben, die Orte, die wir besuchen zu schließen.
Seit Mai soll die neue Datenschutzgrundverordnung personenbezogene Daten besser schützen. Unternehmen sind dabei verpflichtet, ihre Kunden aufzuklären, welche Informationen gespeichert werden, was mit ihnen passiert und wer darauf zugreifen darf. Bei der Forschung sind die Regeln aber nicht ganz so streng.
Neues Forschungsgesetz
Ab kommendem Jahr dürfen Forschungseinrichtungen für Forschungszwecke leichter auf personenbezogene Daten von Behörden zugreifen. Das sind zum Beispiel Daten aus dem Melderegister, dem Geburtenregister oder Ähnliches. Forschungseinrichtungen konnten auch bisher auf behördliche Daten zugreifen. Allerdings nur mit Einwilligung der Studienteilnehmer, einer eigenen Gesetzesgrundlage oder mittels Genehmigung der Datenschutzbehörde.
Das novellierte Forschungsorganisationsgesetz soll den Zugriff nun weiter vereinfachen. Ab kommendem Jahr dürfen personenbezogene Daten aus Registern auch ohne explizite Zustimmung der Betroffenen oder durch Prüfung der Datenschutzbehörde abgeschöpft werden, wenn sie "pseudonymisiert" sind. Also wenn zum Beispiel der Name durch eine Nummer oder einen Code ersetzt wird, was Datenschützer durchaus kritisch sehen. Denn: Auch wenn der Name anonymisiert wird, ist es technisch möglich, aufgrund einer Vielzahl anderer Daten, die Person zu re-identifizieren.
Das österreichische Unternehmen mostly.ai hat ein Modell entwickelt, das Registerdaten so anonymisiert, dass keine Rückschlüsse mehr über die eigentliche Identität möglich sind. "Wir nutzen neuronale Netzwerke, schaffen also synonyme User mit synonymem Verhalten, die echtes Verhalten simulieren können", erklärt Geschäftsführer Michael Platzer.
Registerdaten werden dabei so verschlüsselt, dass zwar die zu erforschenden Eigenschaften bestehen bleiben, die Identität der registrierten Person aber quasi gelöscht wird. "Dafür brauchen wir aber Big Data", erklärt Platzer. Einzelne Personen und Randgruppen seien danach nicht mehr im Datensatz enthalten. Die Methode bringt allerdings auch einen gewissen Grad an Unschärfe mit sich. Denn durch die Anonymisierung können auch forschungsrelevante Daten verloren gehen und die Forschungsergebnisse sind weniger präzise.
Identitätsmissbrauch boomt
Eine Umfrage des deutschen Marktforschungsinstituts Forsa zeigt übrigens, dass zwölf Prozent der Befragten in Deutschland mindestens einmal Opfer von Identitätsmissbrauch geworden sind. Jeder Dritte kennt laut Umfrage jemanden, dem das schon passiert ist. Die Zahlen sind ebenso für Österreich und die Schweiz gültig, sind Datenschützer überzeugt.