Data-Mining : Wenn Daten zur Folter werden

Algorithmen sind die Ordnungssysteme unserer Zeit. Je mehr Daten wir anhäufen, desto stärker bestimmen sie unser Leben. Manche finden das bereits "sadistisch".

Alles wird zur Zahl. Sogar so unwahrscheinliche Dinge wie die Liebe. Ihre Vergänglichkeit zumindest lässt sich in Werten belegen. Wer bei Love Mathematically Alter und Dauer seiner früheren Partnerinnen eintippt, dem berechnet das Programm, wie lange seine jetzige Beziehung wohl noch anhalten wird.

Ein Professor aus Tel Aviv sagt voraus, welcher Musiker demnächst einen Superhit liefern wird. Dazu braucht er geografische Informationen zu den Musikdownloads: Ein starker Hinweis, dass die Geburt eines neuen Sterns kurz bevor steht, ist demnach eine frappierende Differenz zwischen dem großen Zuspruch, den er in seiner lokalen Umgebung erhält und dem geringen Interesse auf nationaler Ebene. Denn zuerst entdecken ihn die Leute, die ihn auf kleinen Bühnen in ihrer Nähe spielen sehen. Sie fangen an, massenhaft seine Musik herunterzuladen, während der Rest des Landes noch ahnungslos ist.

Was dahinter steckt, hört auf den Namen Algorithmus. Im Fall der Starprognosen ist es die sogenannte Kullback-Leiber-Divergenz, doch es gibt viele weitere. Hier eine Top Ten der bedeutendsten Algorithmen unserer Zeit.

Der Suchmaschinenbetreiber Google hat auf solchen Formeln erst ein Geschäftsmodell errichtet und versucht nun, sie für Vorhersagen zu nutzen. Bei Google berechnet man bereits, welcher Mitarbeiter demnächst kündigen will. "So können wir in die Köpfe der Leute gucken, ehe sie selbst wissen, dass sie vielleicht gehen wollen", zitiert das Wall Street Journal den Google Personalmanager Laszlo Bock. Doch nicht nur in die Köpfe, auch in den Körper der Gesellschaft will Google schauen. Aus Suchanfragen ihrer Nutzer werden beispielsweise Prognosen zu Grippe-Verläufen oder Finanzkrisen erstellt. Wo häufig nach "Fieber" oder "Kreditklemme" gesucht wird, bricht eine solche mit hoher Wahrscheinlichkeit aus.

Algorithmen können helfen. Wie groß die Ursprungsmenge der Daten auch sein mag, Algorithmen schaffen Ordnung, wo mit bloßem Auge keine erkennbar ist. Sie sind lösungsorientiert. Sie finden den schnellsten Weg aus einem Labyrinth, die kürzeste Strecke zwischen zwei Orten oder durchsuchen eine Waschmaschine nach passenden Sockenpärchen. Einige hoffen sogar, dass sie Ordnungen finden, von der man vorher gar nicht wusste, dass es sie gibt.

Einige Menschen führen Buch über ihr Quantified Self, um nach versteckten Mustern im eigenen Leben, im kumulierten Ess-, Sport- oder Arbeitsverhalten zu forschen. Im Extremfall halten die Selftracker ihren Tagesablauf in Zwei-Minuten-Schritten fest und benutzen dazu kleine Eingabe- und Messgeräte. Die Hoffnung: Durch das Erkennen verborgener Zusammenhänge herausfinden, wie man effizienter, glücklicher und leistungsfähiger wird.

Verlagsangebot

Entdecken Sie mehr.

Lernen Sie DIE ZEIT 4 Wochen lang im Digital-Paket zum Probepreis kennen.

Hier testen

Kommentare

10 Kommentare Seite 1 von 2 Kommentieren

Messung und Gemessenes

Ich persönlich bin als Sozialwissenschaftler zunächst für Open Data. Unproblematisch ist es jedoch nicht.

1. Ein Problem ist die statistische Diskriminerung. Wenn z.B. junge Männer im Schnitt häufiger Unfälle bauen, ist es für Versicherungen rational, mehr Geld von ihnen zu verlangen. Jedoch bedeutet ein statistischer Unterschied zwischen den mittleren Unfallraten nicht, dass jeder junge Mann unfallanfälliger ist, as z.B. eine junge Frau. Somit werden einige Personen statistisch diskriminiert.

2. Werden Vorhersagemodelle engmaschiger, wird obiges Problem geringer, da ja individuell besser vorhergesagt werden kann. Dann ergibt sich aber das Problem, dass jegliche Privatsphäre hinfällig ist. Hinzu kommt, dass dies asymmetrisch von statten geht. Firmen und Staaten haben hier einen enormen Vorteil, der durch Internetvernetzung von Bürgern nicht so einfach aufgehohlt werden kann.

3. Wie bei Schrödingers Katze ergibt sich das Problem der Interaktion von Messung und Gemessenem. Sobald soziale Vorhersagen und Modelle Grundlage für Handeln und Gesetzgebung werden, ergeben sich Rückkopplungsschleifen. Die vormals beobachtete Realität wurde verändert. Theorien können so zu self-fulfilling prophecies werden, also den Effekt erst dadurch auslösen, dass man ihn vermutet. Siehe auch Goodhart's Law, dass Messmethoden sich selbst aufheben, sobald sie zur Regulation verwendet werden, da die Aktuere sich anpassen.

http://en.wikipedia.org/w...'s_law

Game over!

Ein Algorithmus, der verborgene Zusammenhänge aufdeckt, ist in der Hand von Personalabteilungen gefährlich. Da hat ein Bewerber ein paar unpassende Eigenschaften, wohnt im falschen Stadtviertel, hat den falschen Vornamen, trägt Klamotten von der falschen Firma - und schon heißt es: Game over!

Hausnummer und Kreditwürdigkeit

Wenn Sie ein Banker sind, und zwei Antragsteller wollen einen Kredit - Sie kennen deren Adressen: einer hat eine niedrige Hausnummer, einer hat eine hohe. Wer kriegt den Kredit? Der Algorithmus sagt Ihnen, dass der erste den Kredit mit höherer Wahrscheinlichkeit zurückzahlen kann. Warum, das sagt er nicht.
.
Es ist aber plausibel: Leute mit höherer Hausnummer wohnen oft an lauten Durchgangsstraßen, haben dementsprechend weniger Geld.

Das ist statistisch sicher plausibel

aber individuell ist es eine Diskriminierung, gegen die man eigentlich klagen können sollte (ob das erfolgversrechend ist, weiss ich nicht).
Wer Kredite/Jobs/Versicherungspolizzen vergibt, hat sich die Person, seine individuellen Eigenschaften etc. anzusehen und nicht die Wohnumgebung, die Vergangenheit oder sonstige hochgerechnete Daten!

Wer weiss da mehr?