Die Persönlichkeit hinter den Daten schützen
Innovationen entstehen unter anderem dann, wenn Entwickler digitale Nutzerinformationen analysieren: Sie sehen Zusammenhänge und werden zu Ideen und Produkten inspiriert. Neue Methoden sorgen dafür, dass dabei der Nutzer hinter den Daten nicht mehr kenntlich wird
Der öffentliche Nahverkehr wird besser, wenn die Verantwortlichen mehr über die Menschen erfahren, die ihn nutzen: Zu welchem Zeitpunkt reisen wie viele Passagiere? Wann steigen besonders viele Mütter oder Väter mit Kinderwagen in einen Bus? Gibt es Menschen, die in der Straßenbahn arbeiten möchten? Wollen sie unterwegs Nachrichten sehen? Die Antworten auf diese Fragen sind nichts anderes als Daten, mit denen die Verantwortlichen ihr Angebot verbessern können – indem sie zum Beispiel zu Stoßzeiten mehr Waggons zur Verfügung stellen, ausreichend Stellplätze vorhalten sowie bei Bedarf WLAN oder womöglich Videoabspielflächen in den Wagen installieren. Wer mehr Informationen über Nutzer zur Verfügung hat, kann also bessere Angebote und Dienstleistungen entwickeln. Das gilt im Analogen so sehr wie im Digitalen, wo zum Beispiel Nutzerdaten eine wichtige Ressource zur Entwicklung von Innovationen darstellen.
Zugleich lassen größere Datenmengen zu einer bestimmten Person bisweilen Rückschlüsse auf die Identität zu – selbst wenn in einem Datensatz keine Adressen oder Namen verzeichnet sind. Das ist ein Problem, denn alle Menschen haben ein Recht darauf, dass ihre Privatsphäre geschützt bleibt. Die Nutzerinnen und Nutzer des öffentlichen Nahverkehrs möchten sich nicht mit ihren täglichen Fahrgewohnheiten, ihren Reisezielen und Bewegungsprofilen kenntlich machen, nur damit ein Angebot, das sie verwenden, besser wird. Viele Menschen stellen sich gern in Umfragen für medizinische Forschungsprojekte zur Verfügung, möchten ihre Angaben aber nicht mit ihrer persönlichen Krankheitsgeschichte verbunden wissen. Viele reagieren auch sensibel auf Werbetreibende, die Informationen über ihre Kunden sammeln, um Angebote maßzuschneidern.
Lässt sich zwischen dem Bedürfnis nach Innovation und Privatheit vermitteln? Tatsächlich gibt es heute Ansätze, Forschungsdrang und Datenschutz in Einklang zu bringen. Zwei dieser Methoden heißen »Differential Privacy« und »Private Join and Compute«.
Differential Privacy oder: Weiterentwicklung mit weniger Informationen
Differential Privacy wurde von der Informatikerin Cynthia Dwork gemeinsam mit anderen Forschern entwickelt und lässt sich mit einem Beispiel erklären. Angenommen, ein Unternehmen widmet sich mit seinen Produkten Autofahrerinnen und Autofahrern und möchte mehr über diese Personengruppe wissen. Im Rahmen einer Werbeanzeige auf einer Online-Plattform stellen die Verantwortlichen deshalb die Frage »Haben Sie Punkte in Flensburg?« und verbinden sie mit den Antwortmöglichkeiten »Ja« oder »Nein«.
Klickt ein Nutzer auf »Ja«, wird diese Antwort vom Programm des Online-Portals nicht einfach an das Unternehmen übertragen. Vielmehr wirft ein Algorithmus bildlich gesprochen eine Münze in die Luft. Bei »Kopf« gibt er die korrekte Antwort weiter. Liegt aber »Zahl« oben, wirft er die Münze noch ein weiteres Mal.
Liegt bei diesem zweiten Wurf abermals »Kopf« (also »Ja«) oben, gibt der Rechner des Online-Portals wieder die korrekte Antwort weiter. Liegt »Zahl« (also »Nein«) oben, übermittelt er die falsche Antwort.
Die Daten aus der Umfrage werden durch dieses Verfahren absichtlich zu einem bestimmten Prozentanteil mit falschen Angaben versehen. Es entsteht ein sogenanntes Rauschen im Datensatz, Rückschlüsse auf bestimmte Identitäten sind nicht mehr möglich. Und doch sind die Daten verwendbar: Experten kennen den Prozentsatz, zu dem durch das Kopf-Zahl-Verfahren die Angaben verfälscht werden. Sie können dadurch eine Berechnung anstellen, das »Rauschen« in den Daten unterdrücken und die richtigen Ergebnisse »herausrechnen«. So bekommt das Unternehmen trotz der Verfremdung ein korrektes und nützliches Umfrageergebnis zur Ausgangsfrage.
Eingesetzt wird die Differential Privacy bereits an vielen Stellen. Für Software-Entwickler stellte Google im Herbst 2019 eine Open-Source-Bibliothek bereit, die ihnen hilft, Daten nach dem Prinzip der Differential Privacy zu analysieren. So könnten theoretisch beispielsweise die Programmierer eines App-basierten Fahrradverleihdienstes zwar einsehen, wann welches Fahrrad ausgeliehen und wo es wieder abgestellt wurde – nicht aber, wer es benutzte. Die Privatsphäre bliebe geschützt und relevante Daten würden dennoch übermittelt. Google will an dieser Stelle zu mehr Datenschutz im Digitalen beitragen.
Private Join and Commute oder: Daten verschlüsselt teilen und nutzen
Besonders viel Erkenntnisgewinn kann entstehen, wenn Datensätze verknüpft werden. Angenommen, die Inhaber von Geschäften in einem Stadtviertel werben bei den Verantwortlichen des öffentlichen Nahverkehrs um einen besseren Bus- oder Bahn-Anschluss, weil sie ihre Umsätze steigern möchten. Dann entstehen Fragen: Wie viele Menschen fahren bislang ins Stadtviertel? Wie viel Geld geben sie dort aus? Ist die Annahme der Geschäftsleute richtig? Für die Antworten auf diese Fragen sind Datenanalysen nötig.
Allerdings dürfen die Verantwortlichen des Nahverkehrs womöglich ihr Wissen um Passagierbewegungen nicht einfach mit anderen teilen, während die Unternehmer ihr Wissen um die Ausgaben der Menschen nicht weitergeben möchten. Mit dem Programmiergerüst des »Private Join and Compute«, das bei Google entwickelt wurde, können beide Seiten ihre Daten verschlüsseln und es der jeweils anderen für statistische Berechnungen zur Verfügung stellen. Durch doppelte Verschlüsselung ist es beiden Parteien möglich, statistische Erkenntnisse zu vereinen, ohne persönliche Daten auszutauschen. Im Ergebnis stehen verwendbare Informationen, aus denen sich wesentlich weniger Rückschlüsse auf die Identität einzelner Personen ziehen lassen. Und die Unternehmer und die Verantwortlichen des Nahverkehrs können dennoch errechnen, wie viel Geld ein Passagier durchschnittlich in dem bewussten Stadtviertel ausgibt. Ein Fortschritt für beide Seiten sowie für den Schutz der Privatsphäre.
Illustration und Animation: Sven Kalkschmidt