Ich bin schwanger, halte es aber noch geheim, sogar in der engsten Familie. Auf einmal finde ich Werbung im Briefkasten und in der Mail. Eine Supermarktkette wirbt für Windeln und Strampelhosen.

Ich bin noch nie mit dem Gesetz in Konflikt geraten. Eines Tages klingelt es an meiner Wohnungstür, und ein Polizeibeamter drängt herein. Er warnt mich eindringlich, demnächst keinen Einbruch zu verüben: Man habe mich im Visier.

Ich erhalte fünf Kleidungsstücke meines Lieblingslabels per Paketbote. Nicht eines davon habe ich bestellt, trotzdem probiere ich sie an – fantastisch. Genau mein Stil. Und: genau meine Größe. Drei behalte und bezahle ich. Zwei schicke ich wieder zurück, kostenlos.

Ich will den Arbeitgeber wechseln. Mir gefällt es in meiner Firma nicht mehr. Aber das darf bloß keiner erfahren, ich behalte es für mich. Auffällig bloß: Mich erreichen über die Online-Netzwerke jetzt plötzlich jede Menge attraktive Jobangebote.

Nein, ich lebe nicht im Jahr 2050. Ich lebe jetzt. Und was mir widerfährt, geschieht anderen Menschen heute. Unsere Wünsche werden uns von den Augen abgelesen, noch bevor wir sie aussprechen. Irgendwo sitzt jemand, der uns durchschaut und unsere intimsten Geheimnisse kennt. Der weiß, ob wir schwanger sind, welchen Kleidergeschmack wir haben und ob wir uns nicht mehr wohlfühlen mit unseren Chefs. Und der sogar voraussagen kann, was wir demnächst tun werden.

Das ist keine Magie. Es ist Mathematik.

Inzwischen gibt es nämlich Computerprogramme, die vorhersagen, wie wir höchstwahrscheinlich handeln, was wir mögen und wie wir uns verändern werden. Und obwohl sie (noch) nicht miteinander verbunden sind, wirken sie doch am selben himmelstürmenden Projekt mit: an der Vermessung des Menschen.

Unser Leben wird zum Geschäft. An unserem gegenwärtigen und künftigen Verhalten sind viele interessiert, die ihre Risiken minimieren oder ihre Erträge maximieren wollen. Unternehmen und der Staat, Forscher und Stadtplaner, sie alle werten massenhaft digitale Informationen über uns aus, die sie in öffentlichen und privaten Informationssammlungen aufspüren – darüber, wie schnell wir unsere Rechnungen begleichen oder welche Angebote wir anderen weiterempfehlen, was wir einkaufen und wo wir uns im Tagesverlauf aufhalten. Mithilfe selbstlernender Computerprogramme können Staaten und Firmen heute riesige Datenmengen nach Verhaltensmustern durchsuchen und daraus Konsequenzen ziehen für ihr Handeln: Das nennt man "Big Data".

Es sind Algorithmen, die mit wachsender Präzision ausrechnen, ob Sie Ihren Kredit zurückzahlen werden, ob Sie Ihren Mobilfunkvertrag demnächst kündigen werden oder welche Art von Werbung Sie anspricht. Sie prophezeien auch, ob Sie eine Krankheit ausbrüten – noch bevor Sie zur Vorsorge gegangen sind oder den ersten Schmerz spüren. Sie schätzen ein, ob Sie ein harmloser Bürger sind oder demnächst ein Verbrechen verüben. Es sind Eigenschaften, die man früher Gott zuschrieb.

"Algorithmus" ist ein Synonym für Allmacht geworden. Tatsächlich leitet sich der Begriff vom Namen des persischen Gelehrten Mohammed al-Chwarizmi ab und ist nichts weiter als eine Berechnungsvorschrift. Die Regeln in dieser Vorschrift bestimmen, wie verfügbare Daten zu bewerten sind und was auf dieser Grundlage weiter geschehen sollte. Manche Regeln sind ganz einfach: Zum Beispiel stellen Reiseportale im Internet als Erstes fest, ob ein neuer Besucher ein Apple-Gerät benutzt oder etwa mit einem einfachen Android-Handy unterwegs ist. Er schätzt: Der eine hat mehr Geld als der andere. Dem Apple-Nutzer wird er deshalb deutlich teurere Flüge und Hotels anbieten, weil er aus Daten errechnet hat, dass Apple-Nutzer eher bereit sind, Geld auszugeben und sich etwas zu gönnen.

Andere Regeln aber sind so komplex, dass ein menschliches Gehirn den vielen raschen Schritten des Computers nicht mehr zu folgen vermag – etwa bei Algorithmen, die eigenständig an der Börse handeln oder innerhalb weniger Sekunden aus Tausenden Daten herausdestillieren, ob ein Kunde wohl kreditwürdig ist.

Die "Algos", wie die Internetszene sie liebevoll nennt, können von großem Nutzen sein, wenn sie zeitsparend Produkte anbieten, die wir wirklich haben wollen. Oder uns zum rechten Zeitpunkt zum Arzt schicken. Manchmal wissen sie besser als wir selbst, was uns hilft und schadet. Allerdings hat dieser Segen seinen Preis. Von Natur aus sind Algorithmen ewige Datensammler. Um uns und unseren Marktwert besser zu durchschauen, fordern und verschlingen sie immer neue Informationen. Wie sich an den seit 1. Februar 2015 veränderten Geschäftsbedingungen und erweiterten Zugriffsmöglichkeiten von Facebook auch jetzt wieder zeigt.

Damit das Soziale Netzwerk möglichst individuelle und wirkungsvolle Werbung schalten kann, muss es seine Nutzer kennen. Bisher geschah das vor allem anhand unseres Verhaltens im Netzwerk selbst: Was gefällt uns? Was also "liken" wir auf Facebook? Was teilen wir mit anderen? Jetzt will Facebook uns aber im Internet über viele Websites und Apps hinweg folgen und auch stärker einfließen lassen, wo wir uns gerade physisch befinden. Die geschäftliche Vision dahinter: Sind wir zum Beispiel öfter auf einer Fußball-Website unterwegs, bekommen wir maßgeschneiderte Werbung auf das Smartphone vom Sportladen an jener Ecke, um die wir gerade biegen.

Als Facebook sein neues Vorgehen offenbarte, reichte die Empörung bis in die deutsche Regierung. Doch mehr als ein Aufwallen der öffentlichen Verärgerung muss die Big-Data-Industrie nicht fürchten. Aus Facebook kann man sich abmelden, aber dem globalen Datensog kann sich keiner entziehen. Die Vermessung des Menschen findet inzwischen in allen Lebenslagen statt. Wir haben den Überblick und die Kontrolle darüber, was andere von uns wissen, längst verloren.

Die meisten Menschenvermesser wohnen im Silicon Valley: Nirgendwo sonst wird die Revolution so vehement vorangetrieben, nirgends wird so viel in die globale Dateninquisition investiert.

Ein Hochhaus in Downtown San Francisco: Der Fahrstuhl schießt in die 16. Etage, die Tür öffnet sich, der Besucher geht auf ein riesiges weinrotes Sofa mit wandhoher Lehne zu. Dann muss er sich entscheiden: links oder rechts?

Im Großraum mit den Backsteinwänden zur Rechten spielen zwei T-Shirt-Träger Pingpong. Laptops kreuz und quer, leere Plastikbecher auf der Küchenzeile.

Linker Hand dagegen trennen edle Milchglasscheiben die Arbeitsplätze, an den Tischen in Reih und Glied stehen helle Designerstühle, die Frauen und Männer tragen Blusen und Hemden.

Auf tun sich zwei Welten, die aus ein und derselben Frage hervorgegangen sind: Was zum Teufel soll Max Levchin als Nächstes machen? Der geborene Ukrainer mit den kurzen dunklen Haaren wanderte 1991 mit seinen Eltern nach Amerika aus, da war er 16. Er beendete die Schule, studierte das Fach der Zukunft: Informatik. Und dann startete eine rasante Karriere. Gemeinsam mit dem Großinvestor Peter Thiel und dem späteren Tesla-Gründer Elon Musk schuf er das Online-Bezahlsystem PayPal und verkaufte es 2002 für 1,5 Milliarden Dollar an die Firma eBay. Seine nächste Firma namens Slide ging an Google. Anfang dieses Jahrzehnts hatte der Multimillionär Levchin wieder nichts zu tun und überlegte, wo er mit Big Data nicht nur Geld machen, sondern tatsächlich die Welt verändern könnte.

Der beliebte Politiker Bill Bradley brachte Levchin bei einem Dinner auf die Idee. Es war die Zeit nach der Finanzkrise, und Bradley sagte: "Die Banken hauen die Leute übers Ohr. Daran hat sich seit den achtziger Jahren nichts geändert." Und dann forderte der Alte den Jungen heraus: "Ihr Typen im Silicon Valley sagt doch immer, dass ihr die Welt verbessern wollt. Nun tut was! Zeigt’s den Banken." Das leuchtete Levchin ein. Er gründete das Start-up Affirm, die "bessere Bank".

Ihr erstes Produkt ist ein Konsumkredit, und der funktioniert so: Wer bei bestimmten Handelshäusern etwas bestellt, kann einen Kredit bis zu 1.000 Dollar gleich mit beantragen, rückzahlbar spätestens in einem Jahr. Keine versteckten Zinsen, keine unerwarteten Gebühren, kein Kleingedrucktes und keine komplizierten Internetformulare: Das ist das Konzept. Zunächst macht es sich Affirm selbst schwerer als klassische Banken. Doch es ist kein Wohltätigkeitsverein. Es prüft den Antragsteller auf Herz und Nieren. Statt nur eine allgemeine Bonitätsauskunft einzuholen, lässt es den eigenen Algorithmus auf den Kunden los. In Sekunden durchwühlt das Programm Tausende von öffentlichen und privaten Datenbanken, berechnet Kundenprofile aus Sozialen Netzwerken und prüft die rechtzeitige Begleichung der Handyrechnungen. Ja oder Nein: In weniger als einer Minute hat der Antragsteller die Antwort. Wie der Algorithmus genau funktioniert, darüber gibt Affirm keine Auskunft. Die "Algos" sind Betriebsgeheimnisse wie das Rezept von Coca-Cola. Affirm hat seinen Sitz rechts vom weinroten Sofa. Seine "Banker" sind es, die hier T-Shirts tragen und Tischtennis spielen.

Doch nicht nur die Banken, auch die Versicherungen schienen Levchin erneuerungsbedürftig: Die Gesundheitskosten explodieren, doch viele Versicherer betreiben ihr Geschäft wie eh und je. Levchin setzte bei der Fruchtbarkeitsindustrie an. Konkurrenz musste er bei diesem Projekt kaum fürchten. Obwohl nur zwei Prozent der ungewollt kinderlosen Paare aus physischen Gründen keinen Nachwuchs haben, ist das Ausbleiben der Schwangerschaft ein modernes westliches Massenproblem. Und: Eine künstliche Befruchtung kostet über 15.000 Dollar, ist also extrem teuer. Verstand und Gefühl sagten Levchin dasselbe: Hier war er richtig. Also gründete er Glow, eine Firma, die Paaren zu Kindern verhilft.

Die Glow-Mitarbeiter im Businessdress arbeiten links vom roten Sofa.

Im Sommer 2013 brachte das Start-up seine erste kostenlose App auf den Markt. Wer teilnimmt, beantwortet zunächst Fragen zur Person, zu Gewohnheiten und Krankheiten und füttert den Algorithmus dann täglich portionsweise mit immer mehr Informationen: Fühlst du dich heute unausgeglichen? Hast du acht Stunden geschlafen? Hattest du Sex? Wer mag, kann die App mit einem der gängigen digitalen Gesundheitsarmbänder verbinden, die aufzeichnen, wie viel jemand sich bewegt, wie er schläft oder wie hoch der Blutdruck ist. Je vielfältiger die Daten, desto genauer das Ergebnis. Der Algorithmus errechnet im Lauf der Zeit den Zyklus der Frau, und irgendwann kennt er Tag und Stunde der möglichen Empfängnis besser als ein Arzt. Für jene Benutzer, die keine Kinder mehr wollen, verhütet die Glow-App, indem sie verlässlich vor fruchtbaren Tagen warnt.

Doch auch damit ist das Potenzial von Glow noch nicht ausgereizt: Anhand anonymisierter Massendaten untersucht der Algorithmus immer weiter die Zusammenhänge zwischen weiblichem Verhalten und weiblichem Zyklus. Manchmal kommt er dabei zu skurrilen Ergebnissen. Jüngst hat das Unternehmen eine Studie von 38.000 Fällen veröffentlicht, nach der bei Neumond ein neuer Zyklus der Frau eher beginnt als in anderen Mondphasen.

Auch mit der verbreiteten Annahme, der Zyklus einer gesunden Frau dauere 28 Tage, räumt Glow auf. Bei manchen sind es mehr, bei anderen weniger. Und: Ein Drittel der Frauen verschätzt sich um sechs Tage und mehr, wenn sie den eigenen Zyklus vorhersagen sollen, die Hälfte um mindestens vier Tage. Da setzt die App an und soll gleich im ersten Jahr 25.000 Frauen zur Schwangerschaft verholfen haben.

Für Glow ist das alles nur der Anfang eines größeren Projekts: Die Krankenversicherung soll revolutioniert werden. Das Pilotprojekt ist eine Crowd-Versicherung. Frauen, die erstmals ein Kind haben wollen und die App benutzen, bezahlen dort monatlich 50 Dollar für maximal zehn Monate. Die Beiträge werden gesammelt und dann unter den Teilnehmerinnen aufgeteilt, die nicht schwanger werden und nun eine künstliche Befruchtung anstreben, die in Amerika nicht von den klassischen Versicherungen übernommen wird. Wenn Glow einen Schwangerschaftstreffer gelandet hat, kann die werdende Mutter zur nächsten App wechseln. Die überwacht dann die Schwangerschaft. Treten Anzeichen für Komplikationen auf, rät die App zum Arztbesuch – ganz dem Glaubensbekenntnis Max Levchins folgend, das auch das Motto des Silicon Valley ist: "Die meisten Probleme können gelöst werden, wenn man sie mit Daten angeht."

Das sieht man heute auch bei der italienischen Generali so. Als erster Versicherungskonzern in Europa belohnt sie Mitglieder, die ihren Lebensstil überwachen lassen. Über eine App soll diese Avantgarde der Generali dokumentieren, dass sie Vorsorgetermine wahrnimmt, sich viel bewegt und nicht zu viele Kalorien futtert. Zunächst gibt es nur Gutscheine für gesundheitsbewusstes Verhalten, zum Beispiel für den Besuch im Fitnessstudio. In der Geschäftslogik folgen dann aber günstigere und schließlich gänzlich auf den Einzelnen zugeschnittene Tarife.

Die Vermessung des Menschen schafft neue Möglichkeiten – und neue Zwänge. Glow hilft Frauen, senkt Kosten, verbessert die Gesundheit – ein Fortschritt. Doch gleichzeitig entsteht ein unaufhaltsamer Sog. Die anderen Konzerne müssen nun das Effizienzversprechen von Big Data ebenfalls einlösen. Noch legt Generali zwar Wert darauf, nur mit jenen Daten zu arbeiten, die die Kunden dem Konzern freiwillig überlassen. Aber was wird aus der Freiwilligkeit, wenn alle anderen Versicherungen nachziehen und es für den, der seine Daten nicht teilen und nicht nach Wohlverhalten bewertet sehen will, teuer wird? Was wird aus den Eltern, die ein Kind, bei dem ein Gendefekt im Mutterleib festgestellt wurde, trotzdem bekommen wollen? Können sie sich das noch leisten? Überlegene Effizienz schlägt schnell um in wirtschaftlichen Zwang.

Die Gefahr ist, dass jeder demnächst für sein eigenes Risiko geradestehen muss und der Solidaritätsgedanke der Versicherung durch eine "Atomisierung des Kollektivs" abgelöst wird. Und tatsächlich, je mehr die Algorithmen über den Einzelnen vorhersagen, desto stärker wird der Trend zur Individualisierung auch in anderen Märkten.

Zurück zum Anfang dieses Textes: Zu den Wundergeschichten über Big Data gehört ein Fall beim amerikanischen Handelsriesen Target, der ausschließlich aus dem Kaufverhalten einer Kundin ableitet, ob sie wahrscheinlich ein Kind erwartet. Dann schickt er ihr passende Sparcoupons zu. Viele Schwangere kaufen im dritten Monat nämlich unparfümierte Bodylotion, weil sich ihre Geruchswahrnehmung verändert. Später erwerben sie Magnesium, Kalzium und andere Zusätze.

Den Vater eines noch minderjährigen Mädchens, der nichts vom Zustand seiner Tochter ahnte, setzte Target auf diese Weise unabsichtlich ins Bild. Er hatte sich über die ständig ins Haus flatternde Baby-Reklame beschwert – und musste sich eines Besseren belehren lassen. In welche Schwierigkeiten die Tochter durch das aufdringliche Verhalten des Handelsriesen geriet, kann man sich vorstellen. Denn tatsächlich lösen sich nicht alle Probleme durch Daten. Manche fangen dadurch erst an.

Auch Amazon gilt als Meister des Orakels. Der weltgrößte Onlinehändler prognostiziert die regionalen Verkaufserwartungen der Menschen so exakt, dass er entsprechende Produkte schon vor ihrer Bestellung in die Städte schickt, so gelangen sie dann blitzschnell zum Kunden. Und das Videoportal Netflix, das seinen Kunden per Mail Filme und Serien vorschlägt, trifft dank des besseren Algorithmus deren Geschmack weit öfter als andere Abokanäle. Denn: Wer die besseren Daten hat, hat das bessere Produkt.

Von Netflix hat die amerikanische Onlineboutique Stich Fix ihren Chefanalysten abgeworben. Das digitale Modegeschäft glaubt seine Kundinnen schon so gut zu kennen, dass es nicht auf deren Bestellungen wartet. Vielmehr bittet Stich Fix sie um ein Stilprofil und entwickelt daraus ein mehrseitiges Datendossier. Das gleicht die Firma dann mit dem Sortiment aller mit ihr verbundenen Anbieter ab, sodass für jede Kundin zu jedem Kleidungsstück ein sogenannter heat score entsteht – eine "Begeisterungswahrscheinlichkeit".

Die Vermessung des Menschen gewinnt an Gestalt. Und wir haben uns an alltägliche Prognosen längst gewöhnt. Beginnt man beim Kartendienst Google Maps einen Ort einzutippen, weiß das Programm manchmal schon beim zweiten Buchstaben, was man schreiben will und wie man am schnellsten dorthin gelangt. Die Vorteile unserer Vermessung sind unübersehbar, aber die Gefahren sehen wir nicht. Was mit unseren Daten alles geschieht – wer weiß?

Keine Netzfirma steckt derart tief in unserem Alltag wie Google. Keine weiß mehr über Vorlieben, Gedanken und Interessen. Keine glaubt stärker an die Vorhersagbarkeit des Menschen und die Prophezeiungskraft der Algorithmen. Das Motto der Firma lautet: "Gib den Menschen, was sie wollen, ohne dass sie erst fragen müssen."

Der oberste Forscher von Google heißt Hal Varian, ist 67 Jahre alt und der Halbgott der Netzökonomen, weil er früh die Energie der Internetwirtschaft erkannte, bei der jede Idee kostenlos vervielfältigt und von allen genutzt werden kann. Heute nennt er es seine Aufgabe, zu ergründen, was seine Chefs morgen von ihm wissen wollen.

Varian ist ein nachdenklicher Mensch, aber er ist auch ein Googler, und so schwärmt er vom intelligenten digitalen Assistenten, der Menschen durch den Tag begleitet und ihre Bedürfnisse kennt. "Er sagt Ihnen, dass Sie jetzt schon zu Ihrer Verabredung losfahren müssen, weil auf der Strecke ein Stau ist", sagt Varian. Oder er schlage uns in einer fremden Stadt gleich die richtige Stadttour vor. Oder er organisiere eine ganze Familie, deren Mitglieder aus ganz unterschiedlichen Richtungen zu einem gemeinsamen Treffen anreisen. "Solche Dienstleistungen waren bisher nur für reiche Leute verfügbar, bald gibt es sie für jedermann."

Der Assistent ist eine Art "Über-Algorithmus", der vom elektronischen Kalender des Nutzers bis zu seinen Onlinebuchungen alles miteinander verknüpft. Sämtliche großen Netzkonzerne wetteifern um diesen Markt. Hal Varian räumt ein, dass es da eine "Vertrauenshürde" gebe, bevor Nutzer Google und Co. ihren Alltag überantworteten – je intimer die Beziehung zum Algorithmus, desto gravierender die Folgen von Datenmissbrauch.

Und was, wenn ich aus der Routine meines Verhaltens ausbrechen und etwas anderes probieren will als das Gewohnte? Varian wiegelt ab: Selbst Spontaneität könnten die Algorithmen produzieren. Es gebe den "Auf gut Glück"-Button in der Google-Suche. Und künftig könne man den persönlichen Assistenten anweisen, er möge für Überraschungen sorgen: "Der Wunsch nach Neuem kann erfüllt werden. Früher hatte man solche Dialoge im Laden, heute am Computer."

Geht es ums Geschäft, ist Google der König im Valley mit einem Drittel der gesamten Onlinewerbung, aber ausgerechnet da, wo das Geschäft stark wächst – bei den mobilen Smartphones und Tablets –, rückt Facebook bedrohlich näher und hat schon einen Marktanteil von über 20 Prozent. In diesem Unternehmen ist es Brian Boland, der einen zentralen Job innehat. Der studierte Philosoph leitet die Werbetechnologie. Seine stärkste Waffe im Wettbewerb ist der einzigartige Facebook-Datensatz, auf den selbst Google-Mitarbeiter mit Neid blicken: Weltweit hat Facebook über eine Milliarde Nutzer. Viele von ihnen schauen sich täglich Hunderte von Botschaften und Inhalten an und reagieren.

"Die Leute verbringen auf sehr engagierte Weise viel Zeit bei uns. Das ergibt tolle Informationen", sagt Boland, deshalb könnten Unternehmen bei Facebook leicht jene Personen identifizieren, die sich als Adressaten für ihre Werbung eignen. Dabei bleibe die Identität der Kunden allerdings geheim, schließlich brauchten die Firmen nicht Name und Adresse zu wissen, sondern nur die Eigenheiten der Verbraucher. Das fängt mit einfachen Merkmalen an: Während Onlinewerber sonst im Netz das Geschlecht und die Altersgruppe eines Nutzers allenfalls raten können, erhalten sie bei Facebook zu 90 Prozent die richtige Einordnung.

In Vergleichstests ermittelt das Netzwerk sogar, welche Sorte Anzeige bestimmte Verbrauchergruppen am erfolgreichsten anspricht. Das ist gut für Facebook und seine Unternehmenskunden – aber auch gut für die User? Der Manager findet: Ja. Wenn Werbung, dann solche, die uns interessiert. Daher gefällt ihm die Richtung, die das Werbegeschäft jetzt einschlägt: "Wir gehen gerade über von einem Massenangebot zum Angebot für den Einzelnen." Personalisierte Werbung sei wirklich ein Service.

Doch um Bolands Traum zu realisieren, reicht nicht einmal Facebooks einmaliger Datenschatz. Deshalb strebt das Netzwerk jetzt danach, die Nutzer weitgehend zu erfassen – nicht nur jenen Teil, der in dem Sozialen Netzwerk sichtbar wird. Es folgt damit selbst der Logik des Algorithmus: immer mehr Daten für immer mehr Präzision. Und das Unternehmen ist sicher, die meisten Nutzer lassen sich auf die Gesetze der Datenwelt ein oder stören sich einfach nicht an ihnen. Dazu gehört, dass sie – bei Facebook und anderen – fortwährenden Vergleichstests ausgesetzt sind. Erst auf diese Weise erfährt das Programm, welche Angebote und Anreize funktionieren. Brian Boland sagt: "Die Leute selbst scheinen nichts dagegen zu haben."

Die ökonomischen Kräfte, die die Optimierung der Werbung vorantreiben, sind stark. Schon heute werden Werbeplätze im Netz individuell versteigert – allein in Amerika milliardenfach täglich. Klickt ein Netzsurfer beispielsweise bestimmte Reiseziele an, poppt eine Anzeige für Flüge auf. Computer erkennen die Möglichkeit in Sekundenbruchteilen. Im Silicon Valley stellt die Firma BlueKai Daten über mehr als 100 Millionen amerikanische Verbraucher bereit, um den "Wert" eines jeden Kunden vorab zu bestimmen. Doch bald werden die Werbetreibenden nicht mehr abwarten, bis wir eine Seite anklicken und damit gezieltes Interesse bekunden. Der "Algo" lernt, vorherzusagen, wem ein Angebot gefallen wird und wer es begeistert mit anderen teilen wird.

Unser Verhalten ist viel durchschaubarer, als wir es selbst gerne hätten – nicht nur als Verbraucher. Forscher in Boston zeichneten über mehrere Monate auf, wo sich Tausende von Handybesitzern gerade aufhielten. Daraus konnten sie dann mit einer Genauigkeit von 90 Prozent vorhersagen, wo sich jemand an einem beliebigen Tag zu einer beliebigen Stunde befinden wird.

Der Mensch hält sich für einzigartig und hochindividuell, doch oft ist er ein Gewohnheitstier. Die meisten Muster seines Handelns hat er mit den Artgenossen gemein. Deshalb kann zum Beispiel das weltgrößte berufliche Netzwerk LinkedIn erkennen, ob jemand gerade einen neuen Job sucht: Er reagiert deutlich interessierter auf Nachrichten über Arbeitsmarkttrends oder neue Berufe und knüpft im Netzwerk plötzlich ungewohnte Kontakte. Das registriert der aufmerksame Algorithmus, und er fängt an, dem Ahnungslosen mehr Stellenangebote zu schicken, die ihm gefallen könnten.

Die Vermessung des Menschen nutzt auch der Politik: Barack Obamas Analyseteam konnte im Wahlkampf 2012 beeindruckend genau vorhersagen, welche Wähler in wichtigen Distrikten noch beeinflussbar sein würden – die wurden dann mit Anrufen und Besuchen überhäuft und mit Werbung des amerikanischen Präsidenten bombardiert. Mehrere der jungen Experten von damals haben heute eigene Datenfirmen. Und mit dem Chef des damaligen Wahlkampfteams, Jim Messina, wollen jetzt sogar die Sozialdemokraten in Deutschland arbeiten.

Richtig gravierend wird die virtuelle Prognose bei Justiz und Polizei. Schon heute entscheidet in der Mehrzahl der amerikanischen Bundesstaaten ein Algorithmus mit, welcher Straftäter vorzeitig aus dem Gefängnis entlassen wird und wer weiter einsitzen muss. Er schätzt aus den massenhaft vorliegenden Daten des Inhaftierten künftiges deviantes Verhalten. Nur wenige Menschen sind derart durchleuchtet wie jene, die durch ein Strafverfahren gegangen sind und im Knast unter pausenloser Beobachtung stehen.

In vielen Städten setzt die Polizei nun auch auf den Computer, um Täter zu erwischen – oder um ein Verbrechen erst gar nicht geschehen zu lassen. In Santa Cruz kennt jeder Mensch predictive policing, die vorhersehende Polizeiarbeit. Die kalifornische Universitätsstadt ist weithin dafür bekannt, dass dort Algorithmen die Einsatzpläne von Beamten aufstellen, weil sie prognostizieren, wo in der Stadt wann die meisten Diebe und Gewalttäter unterwegs sein werden. Und in Chicago geht es schon fast zu wie in dem Science-Fiction-Film Minority Report, in dem Tom Cruise Unschuldige rein vorsorglich verhaftet, weil sie in der Zukunft ein Verbrechen begehen werden.

In Chicago kennt die Polizei bereits jene Bürger, die laut "Algo" dazu neigen, eine Straftat zu verüben – und besucht sie. Furore machte der beunruhigende Fall eines 22-Jährigen ohne abgeschlossene Ausbildung, der das Pech hatte, in einer üblen Gegend zu wohnen. Er selbst hatte nie mit der Polizei zu tun gehabt. Trotzdem tauchte eines Tages eine Kriminalbeamtin bei ihm auf und warnte ihn, bloß kein Verbrechen zu begehen: Das hätte böse Folgen für ihn, man habe ihn im Blick. Wer ihr diese Information verschafft hatte, sagte sie nicht.

Ein sonniger Novembermorgen in Stanford. Die Straßen, die sich durch den riesigen Campus ziehen, sind leer, und auf den Gängen der Business School wirkt alles entspannt. Dann öffnet man die Tür zu Susan Atheys Büro, und die Atmosphäre vibriert. Die 44-Jährige redet schnell und artikuliert ins Telefon und signalisiert: noch drei Minuten bis zum Termin. Die schmale, dunkelhaarige Professorin hat Wirtschaft und Computerwissenschaften studiert, sie gewann 2007 als erste Frau überhaupt die Clark-Medaille für den besten Jungökonomen und hat jahrelang Microsoft beraten. "Die Daten über unser Verhalten explodieren förmlich", sagt sie, als sie dann Zeit hat. Nachrichten, die wir lesen, Filme, die wir schauen, Kurzbeiträge, die wir ins Netz stellen – "alles, was wir tun, wird durch unendlich viele Attribute beschrieben". Immerfort versuchen die Algorithmen, diese Daten zu bewerten. Es läuft ein gigantisches und immerwährendes Experiment. Sie testen unterschiedliche Versionen, mit und ohne die neuen Erkenntnisse, und wo sich Verbesserungen ergeben, siegt das Neue.

Doch Susan Athey sieht auch eine Gefahr: Die lernenden Maschinen fänden durch die ständigen Tests zwar eine Verbesserung nach der anderen. Aber wenn Unternehmen nach einiger Zeit nachschauten, wozu sich all das addiert habe, drohe ihnen eine Enttäuschung: Unter dem Strich bleibt wenig übrig, und am Ende sind es die Entwickler, die mit leeren Händen dastehen.

Der Grund ist, dass einige der schönen Innovationen, die zunächst den Erfolg vergrößern, später negative Folgewirkungen entwickeln. Das kann harmlos sein, wenn eine Website, die trickreich die Nutzer anziehen wollte, auf einmal an Attraktivität verliert. Gefährlicher wird es schon, wenn eine Onlineversicherung die falschen Leute ablehnt. Und was noch schlimmer ist als der einzelne Effekt: Im Nachhinein ist es sehr schwer, herauszufinden, welche Neuerungen genau den Fortschritt zunichtegemacht haben.

Athey ist nicht die einzige Insiderin, die solche Systemrisiken aufkommen sieht. Andere gehen viel weiter und fragen, was geschieht, wenn die Algorithmen alle miteinander vernetzt sein werden und der winzigste Programmierfehler sich zum gigantischen Irrtum auswächst. Eine derartige Schreckensvision lieferte der britische Bestsellerautor Robert Harris in seinem Roman Angst. Dort macht sich der geniale Algorithmus eines Hedgefonds selbstständig und stürzt die Welt ins Chaos, bloß um selbst beim Handel an der Börse immer höhere Gewinne zu erzielen. Zu niemandes Nutzen. Nur nach seiner eigenen Logik handelt das Programm noch konsequent.

Wem das unheimlich ist, der sollte zur Fraunhofer-Gesellschaft bei Bonn fahren, die in einem alten Schloss residiert. Dort sitzt Stefan Rüping, Doktor in Künstlicher Intelligenz und Chef einer Gruppe, die große Datenmengen für Wissenschaft und Industrie untersucht. Schwierig wird es für den Experten, wenn eine Vorhersage für einzelne Menschen getroffen wird und die vom Algorithmus konstruierten Zusammenhänge keinen echten Sinn ergeben. Er erzählt ein Beispiel dafür, dass ein Zusammenhang scheinbar statistisch bedeutsam und trotzdem kompletter Unfug sein kann: In einem Projekt für den Einzelhandel fanden er und seine Leute heraus, dass Supermärkte besonders viel verkaufen, wenn viele Frauen über 65 Jahre mit Migrationshintergrund in der Nähe wohnen. Einem automatischen Algorithmus hätte das gereicht, Rüpings Leuten nicht. Sie erkannten, dass diese Supermärkte stets in der Innenstadt lagen, oft nahe dem Bahnhof, wo viele Menschen vorbeiströmen und die Wohnungen billig sind. Dort wohnten eben auch viele ältere Migrantinnen, mit wenig Geld und ohne Auto.

Deshalb reicht es Rüping auch nicht, wenn ein Kredit-Rating "nur irgendwie" negativ mit der hohen Arbeitslosigkeit in jenem Wohnviertel zusammenhängt, aus dem ein Antragsteller stammt. Die Frage, ob ein Mensch kreditwürdig ist, scheint ihm dafür zu wichtig. Wie zum Beweis zeigt Stefan Rüping auf ein Bild an der Wand. Es ist ein Druck aus René Magrittes Gemäldeserie Die Beschaffenheit des Menschen. Aus dem Inneren eines Hauses schaut man durchs Fenster nach draußen. Doch dieses "Draußen" – der Himmel, die Erde – ist nicht real, sondern ist auf einer Leinwand abgebildet, die direkt vor dem Fenster hängt. Der Mensch im Haus sieht also ein künstliches Abbild der Wirklichkeit. "Daten", sagt Rüping, "geben die Leinwand wieder, nicht das Leben."

Der New Yorker Kulturkritiker Neil Postman nannte es den faustischen Handel: Menschen nehmen die neue Technik begeistert an – und sehen die bösen Folgen erst, wenn sich nichts mehr ändern lässt. Was also sollte die Gesellschaft ändern?

Sie müsse festlegen, "dass jeder Herr seiner Informationen bleiben muss", sagt Sandy Pentland, der prominenteste Datenforscher am Massachusetts Institute of Technology bei Boston. Nutzer könnten ihre Daten allenfalls für bestimmte Zeit verleihen, wenn sie dafür etwas Nützliches erhielten, mehr aber nicht. So sehen es viele Experten, sie wollen jetzt die Logik des Datenbesitzes umdrehen. Eigentümer seiner Daten müsse immer der Bürger selbst bleiben, und Unternehmen und staatliche Stellen müssten sich mit guter Begründung um Daten bemühen. Der Kampf um die Daten wird hart, noch härter dürfte das Ringen darum werden, ob der Mensch seine Souveränität über den Algorithmus bewahrt.

Guido Schröder hat da einen Vorschlag. Seit 2012 leitet der deutsche Software-Ingenieur die Forschung und Entwicklung bei Splunk – einem Unternehmen, das Konzernen hilft, ihre Big-Data-Schätze zu heben. Er glaubt, die Vermesser des Menschen müssten sich selbst einen Kodex der Ehrlichkeit auferlegen. Wie der Algorithmus funktioniert, ob man seine Rechnungen noch mit dem gesunden Menschenverstand verstehen kann oder einfach nur der Maschine glauben muss – all das sollen unabhängige Gremien prüfen und offenlegen. Dann kann der Nutzer selbst entscheiden, ob er dem Programm vertraut.

Die Pioniere vom Online-Bezahlsystem PayPal gehen weiter. Sie schwören auf den human in the loop – der Mensch soll immer mitentscheiden. "Es ist ein großes Missverständnis, dass in unserer Industrie alles automatisiert wird", sagt Max Levchin. Computer seien großartig im Analysieren gewaltiger Datenmengen, aber Menschen könnten mit ihrer Intuition Unstimmigkeiten und Unregelmäßigkeiten deutlich besser aufdecken. Richtig gut seien Mensch und Maschine nur zusammen. Deshalb meldet sich der Algorithmus bei Levchins Onlinebank zwar immer, wenn er einen Betrugsfall vermutet – es ist aber ein Mensch, der entscheidet, ob die Firma wirklich tätig werden muss. Und bei Glow, der Internetseite für Schwangere, sind es Medizinexperten, die prüfen, ob Schlussfolgerungen und Warnungen an die Kundinnen wirklich gerechtfertigt sind.

Vielleicht muss der Gesetzgeber künftig bestimmen, dass Menschen wichtige Entscheidungen der Maschine bewerten, bevor sie umgesetzt werden. Ab und zu müssen wir aber auch einfach Nein sagen zur Datafizierung, egal, wie gut sie funktioniert. Diese Lehre erteilen uns ausgerechnet die Programmentwickler von Google. Dort lenkt das mächtige Team für People Analytics das Management mit folgendem Ziel: "Alle Entscheidungen über Mitarbeiter sollen auf der Analyse von Daten fußen." Deshalb schufen die Experten für die allerwichtigste Frage bei Google: "Welcher Programmierer soll befördert werden und welcher nicht?", einen Algorithmus. In den Tests traf der Algorithmus zu 90 Prozent die richtige Entscheidung. Trotzdem wurde er wieder abgeschafft.

Warum?

Weil die Software-Schreiber sich energisch dagegen auflehnten, dass es ein Programm sein sollte, welches über ihre berufliche Zukunft bestimmt. Sie bestanden darauf, dass es unbedingt ein Mensch sein müsse, der eine solche Entscheidung trifft und verantwortet. Ein Mensch, ganz und gar.

Weitere Informationen: www.zeit.de/datenverarbeitung