ZEIT ONLINE: Herr Noller, Sie verdienen Ihr Geld mit Predictive Behavioral Targeting. Was ist das?

Stephan Noller: Man kann es mit einem Tante-Emma-Laden vergleichen. Die Verkäuferin dort kennt einen und gibt personalisierte Empfehlungen – was man in diesem Fall durchaus schätzt. Doch geht das nur, weil der Ladenbetreiber aufmerksam verfolgt, wie seine Kunden sich verhalten. Behavioral Targeting ist der Tante-Emma-Laden als Algorithmus: schauen, was Leute tun, und darauf basierend der Werbung relevantere Antworten geben.

ZEIT ONLINE: Nun will nugg.ad dabei der Gute sein, der den Datenschutz beachtet, und Sie haben auch ein entsprechendes Siegel vom Unabhängigen Landeszentrum für Datenschutz Schleswig-Holstein (ULD) bekommen. Wie kann man identifizieren, ohne zu deanonymisieren?

Noller: Ich glaube, dass es einen Korridor gibt – wie in dem Tante-Emma-Beispiel –, in dem der User Kontrollmöglichkeiten hat und in dem das Ausmaß der Informationen über ihn in gutem Verhältnis zum Nutzen steht. Auch Datenschützer wie Thilo Weichert vom ULD  sehen das so. Es geht vor allem um Transparenz, darum, was der User weiß, und dass er es kontrollieren kann. In der Industrie galt es als unmöglich, Targeting von Datenschützern absegnen zu lassen. Die Lösung besteht darin, so wenig Informationen wie möglich zu erfassen, nicht zu speichern, was man nicht braucht. Die IP-Adresse beispielsweise braucht man nicht für das Targeting.

ZEIT ONLINE: Was braucht man?

Noller: Überraschend grobe Informationen darüber, in welchen Contentbereichen sich jemand bewegt. Liest er eher Kultur- oder Sportseiten oder Politik, auf keinen Fall einzelne Artikel oder bestimmte Websites.

ZEIT ONLINE: Wie finden Sie den Leser wieder?

Noller: Es geht nicht darum, den Leser zu finden, sondern nur sein statistisches Modell. Dafür verwenden wir Cookies. Die Schwierigkeit ist, einerseits dieses technisch sauber zu identifizieren und dann aber, wenn wir es gefunden haben, nur das Nötigste aufzuzeichnen: keine Adresse, keinen Namen, keine spezifischen Informationen. Ich muss nicht wissen, nach welchen Krankheiten jemand gegoogelt hat. Für solche Daten hat die klassische Werbung gar keine Verwendung. Es gibt nur ein Werbemodell, das den einzelnen Nutzer will, Direktmarketing. Alle anderen haben kein Interesse an solchen Informationen.

ZEIT ONLINE: Woher – wenn Sie solche Daten nicht erheben – wissen Sie dann, zu welcher Alterskohorte oder Einkommensgruppe jemand gehört?

Noller: Die Daten erheben wir schon. Aber nur so grob, dass sie für die Werbung noch gerade relevant sind, und niemals personenbezogen. Unser System weiß mit einer statistischen Wahrscheinlichkeit von X, dass jemand in Nordrhein-Westfalen lebt, sich für Kultur und Sport interessiert und vor allem abends surft. Das trifft aber auf viele Tausend Menschen zu. Den Einzelnen wollen wir nicht tracken.

ZEIT ONLINE: Ein Beispiel, bitte.

Noller: In dem Moment, wo jemand auf die Website eines unserer Kunden kommt (beispielsweise ZEIT ONLINE, Anm. d. Red.) nimmt er einen Cookie mit. Kommt er wieder, lesen wir die Informationen darin aus.

 

ZEIT ONLINE: Welche?

Noller: Da steht, er hat auf der Seite XY unseres Kunden so und so viele Sportseiten angeguckt. Aber da steht nicht die konkrete Seite, die er besucht hat. Denn es gibt sehr spezifische Artikel, die nur wenige Menschen lesen, da würde es schon kritisch. Wir nutzen nur übergeordnete Kategorien wie Fußball oder Basketball. Mit diesen Informationen füttern wir ein statistisches Modell.

ZEIT ONLINE: Woher haben Sie Daten zu Alter oder Geschlecht?

Noller: Wir bekommen sie, in dem wir einen kleinen Teil der User der Websites befragen. In diesen Befragungen erheben wir zusätzliche Informationen über Produktinteressen oder zur Soziodemografie. Mit denen werden die statistischen Modelle gebaut. Die wissen dann, wenn man diese und jene Seite besucht hat, ist man wahrscheinlich eher männlich oder weiblich.

ZEIT ONLINE: Und verdient 30.000 Euro im Jahr ...

Noller: Jein. Ob es nun 30.000 oder 40.000 Euro Einkommen sind, können wir nicht sagen. Das Raster ist relativ grob. Was auch ein Teil des Datenschutzes ist: Die Vorhersageverfahren sind ungenau. Niemand kann beispielsweise sagen, wie viel ein User verdient.

ZEIT ONLINE: Was genau wollen Sie vorhersagen können?

Noller: Zum einen versuchen wir, aus einem chaotisch wirkenden Nutzungsverhalten werberelevante Informationen abzuleiten – sind die Nutzer technikverliebte Autofans oder Lohas (Lifestyle of Health and Sustainability, Anm. d. Red.). Eine Übersetzungsleistung sozusagen. Zum anderen geht es darum, mit Marktforschung und Statistik Dinge herauszufinden, die man nicht direkt beobachten kann. Beispielsweise ob sich jemand gerade dafür interessiert, ein neues Auto zu kaufen.

ZEIT ONLINE: Wie können Sie so etwas vorhersagen?

Noller: Wir können in Befragungen erfahren, welche Kaufentscheidungen anstehen. Der Algorithmus versucht dann, diese Information mit Nutzungsmustern in Verbindung zu bringen. Immerhin werden viele Kaufentscheidungen im Internet angebahnt und vorbereitet, dementsprechend lassen sich solche Muster finden. Man verhält sich dann anders. So wie die Verkäuferin im Tante-Emma-Laden ahnen kann, in welcher Stimmung man ist, wenn sie einen kennt und beobachtet. Solche Algorithmen funktionieren ähnlich und können aus den Spuren in den Daten auf Dinge schließen, die sonst nicht sichtbar wären.

ZEIT ONLINE: Wir können unser Verhalten schlecht kaschieren, insofern ist Mustererkennung die Zukunft der Vorhersage, die letztlich auch jeden Datenschutz aushebeln kann. Macht Ihnen das Sorge?

Noller: Ich glaube, dass die Gesellschaft sehr wohl ein Auge darauf haben sollte, da die technischen Möglichkeiten exponenziell zunehmen. Wir können heute riesige Datenbestände mit dem Budget durchsuchen, das ein Student monatlich zur Verfügung hat. Früher mussten sie dafür Unsummen aufwenden. Und wir haben immer mehr Daten, nicht nur von Unternehmen, sondern auch von staatlicher Seite. Es wäre naiv und verantwortungslos zu sagen, das macht mir keine Sorgen. Andererseits ist das aber auch eine riesige Chance. Beispielsweise die Buchempfehlungen von Amazon , ich habe schon viele Bücher dadurch gefunden.

 

ZEIT ONLINE: Aber gespenstisch sind die doch auch, oder?

Noller: Ich finde sie nicht so gespenstisch, aber ich habe auch eine Idee davon, was dabei im Hintergrund passiert.

ZEIT ONLINE: Das Problem ist doch aber, dass die Daten öffentlich sind, auch ich kann sehen, wofür Sie sich so interessieren. Gleichzeitig ist es sehr schwer, ein Bewusstsein dafür zu entwickeln, was aus den eigenen Informationen für aussagekräftige Muster ablesbar sind, oder?

Noller: Deswegen finde ich Initiativen wie die vom Chaos Computer Club , einen Datenbrief einzurichten, exzellent. Und ich glaube, dass wir aufgrund solcher Debatten sehr viel aufgeklärtere Bürger werden. Es entwickelt sich eine Art data literacy , eine Datensouveränität: Wir erdulden das nicht nur, sondern lernen, es zu gestalten.

Natürlich gibt es auch Fälle, in denen das entgleist. So gab es in Großbritannien einen Anbieter, der für Targetingzwecke ein Verfahren eingesetzt hat, das zum Abhören entwickelt wurde. Die haben IP-Telefonate auseinandergenommen und daraus Interessen abgelesen. Das wäre so, als würde jemand in meiner Wohnung eine Abhöranlage installieren und mir sagen, ich solle mich nicht beunruhigen, er wolle nur harmlose Informationen daraus verwenden, um dein Leben schöner zu machen.

ZEIT ONLINE: Aber wir reden dabei doch nur über die Maschenenge des Rasters, nicht mehr über den Fakt an sich, der letztlich eine Beobachtung darstellt?

Noller: Das finde ich überzeichnet. Es ist ein Unterschied, ob ich in einem Klamottenladen auswerte, wo Männer und wo Frauen eher abbiegen, und zwei Wochen danach ist die Männerabteilung eben rechts. Das empfinde ich als Kundenservice, nicht als Verletzung des Datenschutzes. In dieser Kategorie sehe ich auch, was wir tun. Es gibt eine klare Grenze: Es geht um grobe Verhaltensdaten, nicht um personenbezogene Informationen.

Und wir müssen akzeptieren, wenn User auch das nicht wollen. Denn warum werden denn Cookies gelöscht? Weil jemand sich entschieden hat, dass er nicht getrackt werden will. Das muss ich respektieren. Alles andere wäre unlauter.