„Wir nähern uns der roten Linie“

Was können die Geheimdienste eigentlich mit den gesammelten Daten anfangen? Darüber habe ich mich für die WirtschaftsWoche mit dem Oxford-Forscher und Internet-Experten Viktor Mayer-Schönberger gesprochen. Seine These: Computer-Analysen vermeintlich banaler Daten machen unser Denken und Handeln präzise vorhersehbar. Mit gefährlichen Folgen.

Herr Mayer-Schönberger, haben Sie Angst vor dem britischen Geheimdienst? 

Mayer-Schönberger: Aktuell nicht. Wieso?

Wir kommunizieren gerade über den Internet-Telefondienst Skype. Mit großer Wahrscheinlichkeit wird unser Gespräch von Spionage-Algorithmen analysiert. 

Mayer-Schönberger: Das beunruhigt mich nicht so sehr. Wir tauschen uns ja nicht über Schwarzgeldkonten in der Schweiz aus…

…dazu kommen wir gleich noch… 

Mayer-Schönberger: …schlimmer ist, dass in der aktuellen Debatte das eigentliche Gefahrenpotenzial meist übersehen wird. Wir fokussieren uns auf hochsensible personenbezogene Daten oder Firmengeheimnisse. Die sind schützenswert, keine Frage. Aber um sie geht es im Internet eher selten.

Meist geht es dort belangloser zu. 

Mayer-Schönberger: Aber gerade aus diesen banalen Datenschnipseln können Algorithmen immer besser Zusammenhänge herstellen und so sensible Rückschlüsse auf Menschen und Unternehmen errechnen. Das fällt in den meisten Debatten unter den Tisch. Dabei müsste es uns mehr Sorgen machen als Software, die E-Mails ausspäht.

Warum das? 

Mayer-Schönberger: Weil so vermeintliche Nebensächlichkeiten zu mächtigem Wissen führen können. Die US-Einzelhandelskette Target etwa kann aus kleinen Veränderungen im Einkaufsverhalten von Frauen mit hoher Wahrscheinlichkeit schließen, dass sie schwanger sind – lange bevor sie Windeln kaufen. Vielleicht sogar, bevor sie entschieden haben, ob sie das Baby überhaupt bekommen wollen. Genauso ist es möglich, aus den Daten eines Anbieters von Navigationssoftware mit Verkehrsinformation, mit mathematischen Algorithmen auf die Umsätze von Shoppingmalls zu schließen.

Wie durchschauen uns die Algorithmen? 

Mayer-Schönberger: Indem sie unzählige Details zusammenfügen und daraus Zusammenhänge ableiten: Schwangere Frauen etwa kaufen vermehrt unparfümierte Handcremes, weil ihr Geruchssinn sensibler wird. Aus solchen und zig weiteren Indikatoren errechnet Target sogar den voraussichtlichen Tag der Geburt.

Die Verknüpfung banaler Informationen macht Zusammenhänge sichtbar, die tief in unsere Privatsphäre hineinreichen. 

Mayer-Schönberger: Genau. Und dieses Wissen werden sich auch die Geheimdienste nicht entgehen lassen.

Im Projekten wie Tempora und Prism sammeln die Dienste gigantische Datenberge. Die werden nicht nur von Computern, sondern auch von Zehntausenden Analytikern untersucht. Was genau tun die Spione? 

Mayer-Schönberger: Das wissen wir nicht. Aber das Prinzip der Datenanalyse – in Unternehmen ist sie als „Data-Mining“ längst etabliert – ist auf alle Be reiche anwendbar: Jeder Anruf, jede Mail, jede Bewegung, die wir mit einem Smartphone machen, kann analysiert werden. Dabei suchen Algorithmen nach Mustern, und die werden schließlich statistisch mit anderen Veränderungen korreliert. Aus diesen Ergebnissen lassen sich dann verblüffende Dinge herauslesen.

Was zum Beispiel? 

Mayer-Schönberger: Forscher der Universität Cambridge etwa haben in einem Forschungsprojekt nur aus der Analyse des Netzwerkes an Facebook-Freunden die sexuelle Orientierung eines bestimmten Nutzers vorhergesagt. Die Ergebnisse waren sehr präzise, ganz unabhängig davon ob die betroffene Person sich zu diesen Themen auf Facebook überhaupt konkret geäußert hat. Die Forscher haben einfach die Vernetzung der Probanden, deren Interessen und die Interessen der Freunde analysiert.

Nicht unbedingt eine Frage für Spione. 

Mayer-Schönberger: Aber Sie sehen daran, wie gut die Datenanalyse ist. Interessant ist auch, dass wir künftig nicht mal mehr konkrete Fragen brauchen, um zu Ergebnissen zu kommen. Experten überlassen die Daten einfach den Algorithmen, und die suchen selbstständig nach Mustern. So könnten sich Bedrohungen erkennen lassen, noch bevor die Akteure ihre Pläne konkretisieren.

Solche Instrumente wird sich wohl kaum ein Geheimdienst entgehen lassen. 

Mayer-Schönberger: Wir können davon ausgehen, dass die US-Dienste technisch auf dem neuesten Stand sind. Und die Möglichkeiten, mithilfe von Datenanalyse bislang unbekannte Einsichten zu gewinnen, werden fortwährend besser. Problematisch ist, was daraus folgt. Denn immer öfter beeinflussen Algorithmen die Entscheidungen von Menschen. In den USA etwa nutzen manche Sicherheitsbehörden eine Datenanalyse, die vorhersagt, mit welcher Wahrscheinlichkeit ein bestimmter Häftling im ersten Jahr nach der Haftentlassung in eine Schießerei verwickelt sein wird. Die Betroffenen empfinden dies als Strafe des Algorithmus: Denn ihnen wird in der Regel die Entlassung auf Bewährung versagt.

Das letzte Wort hat der Computer? 

Mayer-Schönberger: Das ist die Tendenz. In 30 US-Bundesstaaten sind solche Systeme bereits im Einsatz. Grundlage für die Vorhersage sind Daten aus dem Leben der Häftlinge. Das System soll statistisch jedenfalls deutlich besser in seiner Vorhersage sein, als es die bisherigen Bewährungsbehörden einschätzen konnten.

Geben wir zu viel Macht aus der Hand? 

Mayer-Schönberger: Das ist die zentrale Frage. Zwar entscheiden noch immer Menschen, wer auf Bewährung freikommt oder welche Passagiere am Flughafen genauer untersucht werden. Aber die Beamten wissen immer seltener, warum und auf welcher Basis sie das tun: Sie exekutieren immer öfter lediglich die Entscheidungen aus einer maschinellen Datenanalyse, die sie selbst nicht durchschauen können, weil sie viel zu komplex ist.

Glauben Sie, dass wir uns in Richtung einer Welt bewegen, wie sie der Film „Minority Report“ beschreibt: dass Menschen präventiv für Taten bestraft werden, die sie womöglich erst Jahre später begehen? 

Mayer-Schönberger: Das ist gut möglich. Und darum geht es wohl auch bei Prism und Tempora: herauszufinden, wie sich Menschen in Zukunft verhalten werden.

Ist das eine Welt, in der Sie leben möchten? 

Mayer-Schönberger: Nein. Das Prinzip, freiheitlich, selbstbestimmt zu handeln, gerät damit in Gefahr. Wenn die Entwicklung so weitergeht, ist es nicht mehr unwahrscheinlich, dass Menschen künftig am Flughafen verhaftet werden, weil die Datenanalyse vorhersagt, dass sie drei Jahren später möglicherweise einen Anschlag verüben.

Nun übertreiben Sie. 

Mayer-Schönberger: Nein, wir nähern uns hier immer mehr einer klaren roten Linie. Ein Beispiel dafür ist ein Forschungsprojekt im Auftrag des US-Heimatschutz-Ministeriums, bei dem aus physiologischen Daten wie Herzfrequenz und Pulsschlag Rückschlüsse darauf gezogen werden sollen, ob eine Person einen Terroranschlag plant. Und viele dieser Daten lassen sich ja schon heute durch Kameras etwa auf Flughäfen und Bahnhöfen ohne unmittelbaren Kontakt mit einer Person messen.

Wie das? 

Mayer-Schönberger: Anhand geringer Farbveränderungen der Haut können Kameras die Herzfrequenz von Menschen ermitteln. Immerhin hat der amerikanische Kongress das Projekt als so problematisch eingestuft, dass die Politiker es gestoppt haben.

Wahrscheinlich ist das der einzige Ausweg aus der unkontrollierten Überwachung: demokratische Kontrolle. 

Mayer-Schönberger: Ja. Nur hilft die wenig, wenn die Geheimdienste ein völlig intransparentes Eigenleben führen. Grundsätzlich sind die Datenanalyse und die damit verbundenen Prognosen ja auch hilfreich. Problematisch wird das Ganze, wenn es dazu dient, Menschen für vorhergesagtes Verhalten verantwortlich zu machen. Da missbrauchen wir Big Data, auch wenn das verständlich ist, weil wir Menschen aus statistischen Korrelationen immer Ursache-Wirkungs-Zusammenhänge ableiten wollen.

Das müssen Sie erklären. 

Mayer-Schönberger: Also gut. Datenanalysen zeigen etwa, dass in den USA orangenfarbene Autos – gleich welcher Marke – am seltensten in die Werkstatt müssen.

Weil nur besonders zuverlässige Hersteller Fahrzeuge in dieser Farbe bauen? 

Mayer-Schönberger: Schon sind Sie in die Falle getappt. Sie unterstellen den Daten einen Grund, ein „Warum“. Doch eine Begründung können diese statistischen Korrelationen nicht leisten. Sie zeigen uns nur das „Was“, nie das „Warum“.

Wie lautet Ihre Lösung? Bislang wird in Sachen Datenanalyse immer alles gemacht, was technisch möglich ist. 

Mayer-Schönberger: Ja, diesen Trend gibt es. Ich denke, wir müssen daher klare gesetzliche Vorgaben schaffen, welche Bereiche, welche Entscheidungen wir auf Big Data stützen sollen – und welche nicht. Wir müssen sicherstellen, dass wir durch Big Data Menschen nicht bloß für mathematisch hochgerechnetes, künftiges Verhalten verantwortlich machen, so wie das jetzt schon bei Bewährungsfragen in US-Gefängnissen geschieht.

Was sagen die Daten: Wird das gelingen? 

Mayer-Schönberger: Das kann ich nicht sagen. Aber als Mensch hoffe ich es.

Mayer-Schönberger, 47, ist Jurist und beschäftigt sich am Oxford Internet Institute unter anderem mit gesellschaftlichen Auswirkungen massenhafter Datenanalysen. Der Autor des Buches „Big Data: ARevolution That Will Transform How We Live, Work and Think“ berät Unternehmen, Regierungen und internationale Organisationen. 

Kommentar verfassen