Big Data : Wer hebt das Datengold?
Seite 3/3:

 Was kann man in einer Welt voller Big Data überhaupt fragen?

Firmen und Organisationen können auf der Website des Unternehmens eine Art Ausschreibung starten: Sie sagen, was ihr Problem ist. Sie geben bekannt, welche Daten sie gesammelt haben. Wer das Problem am besten löst, bekommt einen Preis.

Zuletzt wollte zum Beispiel der Gesundheitskonzern Heritage mithilfe von Kaggle erfahren, welcher Patient aus seiner Datenbank wohl im kommenden Jahr ins Krankenhaus muss (3 Millionen Dollar Preisgeld). Der Musikkonzern EMI Music wollte herausfinden, welches Musikstück der nächste große Hit wird (10.000 Dollar); eine Aufklärungskampagne über Gefahren im Internet interessierte sich sogar dafür, welcher User des Nachrichtendienstes Twitter wohl wahrscheinlich ein Psychopath ist (1.000 Dollar). Mal klingt das spielerisch, mal akademisch, aber Goldbloom sagt: »Sie können sich ja ausrechnen, wie wertvoll für eine Bank oder eine Versicherung die Vorhersage sein kann, ob Sie im kommenden Jahr Ihr Auto zu Schrott fahren.«

An Kaggle merkt man auch, wie sehr die Auswertung von Big-Data-Beständen bisher noch eine Mischung von Wissenschaft und Tüftelei ist. Rund 45.000 Datendetektive haben sich bei Kaggle registriert, um dort Probleme zu knacken – »und wir machen die Erfahrung, dass Physiker und Elektroingenieure am besten abschneiden, und zwar solche mit einem gewissen Schuss Common Sense. Oh, und es gibt einen Gletscherforscher, der regelmäßig mit guten Ergebnissen dasteht.«

Warum? Goldbloom zuckt mit den Schultern: Es sei eben nicht alles nur fortgeschrittene Mathematik und reine Wissenschaft, man brauche auch Intuition und praktisches Verständnis. »Eins meiner Lieblingsbeispiele war ein Wettbewerb für einen sehr großen Gebrauchtwagenhändler in den USA«, erzählt Goldbloom. »Diese Leute brachten uns historische Daten aus zehn Jahren und wollten wissen: Welche Gebrauchtwagen erweisen sich auf lange Sicht als besonders haltbar? Und es stellte sich heraus, dass nicht die Zahl der gefahrenen Kilometer den Ausschlag gab oder die Größe des Motors, sondern dass Autos mit ungewöhnlichen Farben sich als am haltbarsten erwiesen.« Über den Grund kann man bloß spekulieren. Aber statistisch gesehen hält das Ergebnis, und für den Händler ist es äußerst wertvoll.

So tasten sich Datentüftler auf Kaggle, wissenschaftliche Organisationen und eine wachsende Schar von Hightech-Unternehmen Einzelproblem für Einzelproblem an die Frage heran, was man in einer Welt voller Big Data so alles fragen kann.

Big Data für die Polizei

Am Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme (IAIS) in Sankt Augustin arbeiten Experten gerade an einem ambitionierten Projekt, das eines Tages Polizei und Notdienste unterstützen soll: Der Plan ist, alle möglichen Mobilfunkdaten und Internetinformationen wie zum Beispiel Twitter-Meldungen auszuwerten – und dann automatisch den Einsatzkräften mitzuteilen, ob irgendwo im Land gerade ihre Hilfe benötigt wird, ob etwa eine Großveranstaltung aus dem Ruder läuft. Dazu müssen Ballungen von Menschen daraufhin untersucht werden, ob sie von vergangenen Ballungen abweichen – sprich, man braucht historische Datenbanken. Und Twitter-Nachrichten müssen beispielsweise daraufhin durchforstet werden, ob sie eher Freude ausdrücken – oder Panik. Big-Data-Systeme der Zukunft, davon ist man bei Fraunhofer überzeugt, werden die menschliche Sprache gut zu deuten wissen.

Womit sich sogleich das nächste ungelöste Problem stellt: Was ist mit dem Datenschutz? Die Verarbeitung personenbezogener Daten könne gleich mehrere Grundrechte beeinträchtigen, sagt der EU-Abgeordnete Jan Philipp Albrecht. Auch viele Forscher haben das Problem erkannt. Stefan Wrobel vom Fraunhofer-Insitut sagt: »Es reicht keineswegs aus, nur Namen, Vornamen, Alter und Adresse von einem Datensatz zu trennen, um ihn zu anonymisieren. Auch wenn man den Namen von den Bewegungsdaten trennt, muss man ja nur schauen, wo das Signal nachts ist, dann weiß man, wo der Besitzer des Handys wohnt, darüber können Sie die meisten Menschen leicht identifizieren.«

Für dieses Problem habe Fraunhofer eine technische Lösung gefunden. Man habe, »grob gesagt, die Datensätze in Teile zerlegt und diese Teile neu durchgewürfelt«. Aber diese eine Lösung habe schon mehrere Jahre gekostet. Mit anderen Worten: Big Data kann gerade in Europa, wo man den Datenschutz sehr ernst nimmt, langwierig und teuer werden.

Und es gibt noch ein anderes Grundsatzproblem, das die gewinnbringende Nutzung von Big-Data-Lösungen erschwert: Es hat mit den Entscheidungsstrukturen in Konzernen zu tun.

Neue Art der Entscheidungsfindung

In der Firmenzentrale des Big-Data-Experten SAS Institute in Heidelberg lässt sich die Zukunft moderner Konzernführung besichtigen. Im Besprechungsraum wirft ein Projektor die Geschäftszahlen eines international operierenden Spielzeugkonzerns an die Wand – Verkäufe von Teddybären, Spielzeugautos und dergleichen mehr. Gegliedert nach Regionen, nach Gewinnen, nach Lieferzeiten; unterschieden nach der jeweiligen Saison, nach Standorten mit viel Konkurrenz und mit wenig Konkurrenz, die Möglichkeiten erscheinen unendlich.

Man kann das alles mit ein paar Mausklicks sortieren, ja sogar wahllos in den Datenbeständen des Konzerns herumdaddeln: Immer wieder erstellt der Computer dann automatisch ein paar übersichtliche Grafiken, anhand derer man ein bisschen mehr über die Geschäfte, Herausforderungen und Chancen des Spielzeug-Metiers lernen kann.

Es ist eine Demo. Aber ziemlich ähnlich – das versprechen sie zumindest bei Big-Data-Firmen – kann Konzernführung heute laufen. Das Chefzimmer verwandelt sich in eine Art Kommandobrücke, auf der der Computer den Überblick über das Konzernschiff herstellt und dazu nach Bedarf in sämtlichen Daten aus dem Unternehmen und seiner Umwelt stöbert. Spielerisch kann man Szenarien ausprobieren: Was wäre, wenn man die Teddybären in China billiger anbieten würde? Was wäre, wenn die Lieferanten in Osteuropa streikten? »Big Data bringt die Möglichkeit einer völlig neuen Art der Entscheidungsfindung«, schrieben kürzlich drei Forscher des McKinsey Global Institute. »Mit kontrollierten Experimenten können Unternehmen Hypothesen testen und ihre Geschäfts- und Investitionsentscheidungen von den Ergebnissen leiten lassen.«

Die Rede ist also von einem weiteren Schub der Verwissenschaftlichung in Konzernzentralen. Das Problem ist, dass eine wirklich konsequente Orientierung an den Daten klar den etablierten Führungsstrukturen widerspricht.

Daten seien bisher Entscheidungshilfen gewesen, aber die Entscheidung habe dann doch beim Chef gelegen, sagen Andrew McAfee und Erik Brynjolfsson, zwei MIT-Experten für die Erforschung von Geschäften im Digitalzeitalter. Sie schlagen allerdings vor, dass sich das in den Zeiten von Big Data ändern sollte: Chefs sollten ihre Leute am besten ab sofort umerziehen. Und selber mit gutem Beispiel vorangehen, fordern die Experten. »Sie sollten es sich bei einer wichtigen Entscheidung zur Gewohnheit machen, erst mal zu fragen: Was sagen die Daten?«

Verlagsangebot

Entdecken Sie mehr.

Lernen Sie DIE ZEIT 4 Wochen lang im Digital-Paket zum Probepreis kennen.

Hier testen

Kommentare

33 Kommentare Seite 1 von 5 Kommentieren

...........

"Wie es mir scheint, wird hier nicht nur übersehen, dass Konzerne damit gewaltige Mengen Kapital konzentrieren können (Stichwort Oligopole) - was dem Grundsatz vom freien Markt einigermaßen widerspricht"
Das hat allerdings nicht das geringste mit der neuen Technologie zu tun, sondern ist im Profitstreben jedes Unternehmen begründet.
Jedes Unternehmen das Profit machen will strebt das Monopol an, denn das generiert immer den meisten Profit. Das war schon vor Jahrhunderten so (siehe Medici oder Fugger) und wird auch imemr so bleiben, solange ein Unternehmen nach Profit strebt.

Leider...

... "gestaltet" der Staat die rechtlichen Grundlagen (falls sie das meinen) für den Umgang mit neuen Technologien sehr zeitverzögert. Und bis dahin wird es möglicherweise sehr viele Geschädigte geben, die im Schlimmsten Fall gar nicht wissen, dass sie geschädigt sind.

Ist vielleicht etwas zu einseitig negativ gedacht, aber die einseitig positive Seite beschreibt ja der Artikel hinreichend.

Wenn 300 Millionen Datensätze gespeichert werden müssen und

Milliarden Auswertungen erfolgen, um ein paar Millionen zu sparen, macht das klar, wie wenig Goldkörner im Big Data unterwegs sind.

Um die Vorteile, die der Lagerhaltung entstehen können, mache ich mir wenig Sorgen, viel bedenklicher finde ich die Anstrengung beispielsweise des Fraunhoferinstituts das im europäischen Indect-Projekt (leider nicht erwähnt im Artikel) ganz dick involviert ist, und das viel näher an Big Brother ist, als sich viele Bürger vorzustellen wagen.
http://de.wikipedia.org/w...