Unternehmen sammeln und analysieren mehr Daten als je zuvor – nicht nur von Kunden, sondern auch von den Mitarbeitern. Einige wollen damit sogar in die Zukunft blicken.

Stadtentwicklung & Infrastruktur: Andreas Geldner (age)

Stuttgart - Außendienstler sind Zahlen gewohnt: Verkaufsstatistiken waren bei ihnen schon immer der Maßstab für Gehälter und Karrieren. Doch was der Walldorfer IT-Anbieter SAP dem modernen Verkäufer in die Hand drücken will, ist geradezu ein Datenstaubsauger. Das App-Bündel Fiori soll es jederzeit und überall möglich machen, per Tabletcomputer die gesammelte IT-Intelligenz der firmeneigenen Datenbanken anzuzapfen.

 

Mit einem Fingertippen sollen die Mitarbeiter an Informationen herankommen, die sie vor wenigen Jahren teilweise nur durch eine aufwendige Anfrage bei der IT-Abteilung hätten erschließen können. Das Angebot reicht vom Branchenticker in einer Ecke des Bildschirms über interne Marktanalysen bis hin zu Grafiken und Verlaufskurven mit den aktuellen Verkäufen eines Produkts an einen bestimmten Kunden. Alles ist vermessen und analysiert: Der Nutzer kann historische Daten betrachten oder Marktprognosen abrufen. Er kann das Ergebnis all seiner Verkaufsgespräche der jüngsten Zeit oder sogar der vergangenen Jahre in den Blick nehmen.

Am Bildschirmrand lächeln ihm die Fotos der Kollegen in der Abteilung entgegen. Auch deren Verkaufserfolge und -misserfolge kann er jederzeit beobachten. Ein Kollege hat bei dem Kunden, zu dem der Verkäufer gehen will, die Wettbewerber mehrmals ausgestochen. Eine Kollegin hingegen war weniger erfolgreich. Die Transparenz ist total. Der Verkäufer mag immer noch seiner Intuition und seinen persönlichen Kundenkontakten vertrauen. Doch wenn es um die Steuerung seines Handelns geht, sind der Maßstab Daten, Daten und nochmals Daten. Dass hinter einzelnen Auswertungen enorme Rechenoperationen stecken können, für die SAP beispielsweise eine ultraschnelle Datenbank anbietet, soll der Nutzer überhaupt nicht merken. Big Data kann manchmal ganz klein daherkommen.

Das Schlagwort, das für manche seiner einstigen Protagonisten inzwischen zu sehr nach Big Brother klingt, ist ein schillernder Begriff. Er fasst unter einer Überschrift unterschiedliche Trends zusammen. Schon seit Beginn des elektronischen Zeitalters haben sich gewaltige Datenberge angesammelt – so groß, dass die Auswertungsmöglichkeiten zeitweise deutlich hinterherhinkten. Heute können die darin steckenden Informationen zusammengefügt und gehoben werden. Dabei helfen natürlich höhere Rechenleistungen. Doch ein weiterer Baustein, der die Allgegenwart der Daten möglich gemacht hat, ist das sogenannte Cloud Computing, bei dem externe Dienstleister das Management von Daten und IT-Prozessen übernehmen. Diese Spezialisten können eine leistungsfähigere Infrastruktur anbieten, als dies für einzelne Anwender möglich war.

IBMs Supercomputer Watson soll Kunden beraten

Auch unstrukturierte Informationen, wie sie etwa in Texten oder in Videos und Fotos versteckt sind, lassen sich inzwischen auswerten. Wie weit entwickelt die Analysefähigkeiten moderner Rechner sind, hat 2011 der IBM-Supercomputer Watson demonstriert. Die Maschine, die zuvor mit einem Katalog von Informationen gefüttert worden war, nahm an der populären Quizshow „Jeopardy“ teil – und gewann. Der damals noch als Prototyp präsentierte Computer konnte menschliche Sprache so gut verstehen, dass er die in der Show oft mit Doppelbödigkeiten gespickten Fragen gut verstand. Heute gehört „Watson“ zum Big-Data-Angebot von IBM. Sein Verständnis von menschlicher Sprache mache es beispielsweise künftig möglich, ihn in der Kundenberatung einzusetzen, sagt IBM.

Ein Beispiel aus der Finanzbranche: jede Bank sitzt heute auf einem enormen Datenschatz, weil sie die Konten ihrer Kunden kennt. Zwar darf sie aus Gründen des Datenschutzes nicht analysieren, was der Kunde mit seiner EC-Karte einkauft, und sie darf keine Informationen an Dritte weitergeben, aber wie sich der Kontostand entwickelt, kann sie auswerten. „Für Banken ist Big Data kein Neuland“, sagt Michael Kannemacher vom Stuttgarter IT-Dienstleister GFT Technologies. Er spricht lieber von „Big Analytics“, weil es nicht um zusätzliche Daten, sondern um schnellere und genauere Antworten geht: „Wer die Zukunft besser vorhersagen kann, schafft sich Wettbewerbsvorteile“, sagt Kannemacher. Für eine Kreditvergabe beispielsweise können viel mehr Parameter berücksichtigt werden als bisher.

Schnell von den Datenmassen hin zum Einzelfall, heißt die Devise. „Wenn eine Bank etwa auf ihr Immobilienportfolio blickt, dann muss sie nicht mehr nur mit aggregierten Daten operieren – sie kann nun schnell zu jedem einzelnen Objekt herausfinden, wie es zu bewerten ist,“ sagt Kannemacher. Der Computer fälle aber keine Urteile, er bereite die Datenmassen nur für das menschliche Verständnis auf, sagt der GFT-Experte: „Die Visualisierung von Informationen spielt hier eine große Rolle.“ An der abschließenden Bewertung durch den Menschen führe aber am Ende kein Weg vorbei: „Sie brauchen dafür geschultes Personal.“

Doch der Neugier sind technisch keine Grenzen gesetzt. Im Sommer 2012 führte ein Projekt der vom einstigen SAP-Chef gegründeten Hasso-Plattner-Stiftung zu einem öffentlichen Aufschrei. Sie wollte zusammen mit der Wirtschaftsauskunftei Schufa, die für Banken und andere Firmen die Kreditwürdigkeit von Kunden benotet, einmal ausloten, ob dazu auch Daten aus sozialen Netzwerken herangezogen werden können. Nach heftigen öffentlichen Reaktionen gab man das Vorhaben auf. Zu Marketingzwecken ist es aber Banken wie auch anderen Unternehmen unbenommen, den reichen Schatz an öffentlichen Äußerungen zu heben, der sich dank Big Data im Internet finden lässt. Egal wie versteckt derBlog ist oder wie tief verschachtelt der Kommentar-Thread eines Diskussionsforums auch sein mag – moderne Analytik fördert jede im Internet gemachte Äußerung etwa über ein Produkt zu Tage. Und solange die Informationen aus dem öffentlichen Raum stammen, etwa aus allgemein zugänglichen Internetforen, ist das auch legal.

Big Data ist eine Kulturrevolution

„Big Data“ ist dennoch ein Stück weit auch ein Marketingbegriff. Er soll den insbesondere in Deutschland oft zögerlichen Nutzern, die neue IT-Feuerkraft schmackhaft machen. Firmen, die bisher ihre Daten selbst gespeichert und verwaltet haben, sollen sich in die Hand externer Anbieter begeben. Noch scheitert der eifrig propagierte Siegeszug der Datenanalyse aber manchmal an dem Problem, dass dafür erst einmal die richtigen Fragen gefunden werden müssten. Nicht jeder Geschäftsprozess braucht die hyperschnelle Verknüpfung disparater Informationen.

Big Data bedeutet dennoch eine Kulturrevolution. Statt Erfahrung, Intuition und etablierter Geschäftsprozesse soll eine wachsende und immer schneller abzurufende Zahl von Messwerten und Daten unternehmerische Entscheidungen bestimmen. In einem solchen System gibt es keine Ausreden oder subjektiven Begründungen mehr, wenn etwa ein Verkaufsgespräch schiefgeht. Für die Mitarbeiter bedeutet „Benchmarking“ nicht mehr nur einen Rückblick am Ende des Quartals. Die Messlatte kann vielmehr täglich, ja stündlich angelegt werden.

Anbieter wie Ebay und Amazon können etwa in der Weihnachtssaison Millionen und Abermillionen Kundenanfragen und -bestellungen schon zu dem Zeitpunkt analysieren, an dem sie anfallen – und sofort reagieren, wenn sich Produkte als Trendsetter entpuppen. Das birgt das Potenzial, das Arbeits- und Geschäftsleben radikal zu verändern. Doch die Möglichkeiten von Big Data gehen über die permanente Kontrolle von Prozessen und Mitarbeitern hinaus. „Rückwärts blicken zu können ist ja ganz fein, aber nach vorne zu schauen ist der wirkliche Sprung“, sagt eine IBM-Sprecherin. Die Vision von Big Data ist, Vorhersagen über künftige Entwicklungen treffen zu können.

Die Daten-Giganten wollen vorhersagen, was der Kunde tut

Für Verbraucher hat dies Konsequenzen. Der Hunger nach Nutzer- und Kundendaten ist auch deshalb unstillbar, weil zum ersten Mal zu vertretbaren Kosten jedes für Unternehmensentscheidungen potenziell relevante Datenfitzelchen in immer neuen Kombinationen ausgewertet werden kann. Die Masse ist kein Versteck mehr. Jeder Einzelne kann mit seinen Vorlieben und Gewohnheiten herausgefiltert – und gleichzeitig mit einer Masse anderer Kunden verglichen werden. Es ist kein Wunder, dass weltweit Konzerne Oberwasser haben, die nichts anderes sind als Big-Data-Verwertungsmaschinen. Daten-Giganten wie Google und Amazon haben als Erste den Wert der Daten erkannt. Ihr Analyseanspruch erstreckt sich längst nicht mehr nur auf die nachträgliche Auswertung des Kundenverhaltens. Sie wollen vorhersagen, was der Kunde als Nächstes wünscht und tut. Dazu werden aus Millionen und Milliarden von Informationen jene herausgefiltert, die für die einzelne Person Relevanz haben. „Dies trägt anscheinend bestimmte kulturelle Annahmen in sich“, schreibt der US-Publizist David Brooks: „Es ist der Glaube, dass alles, was gemessen werden kann, auch gemessen werden soll, dass Daten eine transparente und verlässliche Linse sind, die Emotionen und Ideologie herausfiltern, und dass Daten uns bemerkenswerte Dinge erlauben – etwa eine Vorhersage der Zukunft.“

Schon lange ist beispielsweise das Online-Portal Amazon in der Lage, die Interessen unterschiedlicher Kunden zu verknüpfen und etwa darauf hinzuweisen, für welches weitere Buch sich Kunden interessieren, die das gerade aufgerufene Werk ebenfalls angeschaut haben. Doch mit noch mehr Rechen- und Analysekraft ist auch das Ziel erreichbar, dass Personen, die einander kennen und vertrauen im Moment der Kaufentscheidung miteinander verbunden werden können. Die radikalste Vision von Big Data besteht darin, dass das Analysesystem der Entscheidungsfindung des einzelnen Konsumenten überlegen ist und es dessen Bedürfnisse angeblich besser kennt als er selbst. „Es war einmal, dass wir Dinge gekauft haben, um unsere Freunde zu beeindrucken, im vollen Bewusstsein, dass sie unseren Einkauf vielleicht nicht mögen würden. Nun ist die Logik gerade umgekehrt: Wenn etwas unsere Freunde beeindruckt, kaufen wir es“, sagt der US-amerikanische IT-Experte und Buchautor Evgeny Morozov.

In den USA, dem Ausgangspunkt des Big-Data-Booms weckt die Vorstellung von der Unfehlbarkeit der Algorithmen allerdings auch unangenehme Erinnerungen. Viele Big-Data-Techniken – mathematische Modelle, Vorhersage-Algorithmen und Software mit künstlicher Intelligenz – wurden in größerem Maße zuerst von der Wall Street eingesetzt. „Quants“ hießen mit Spitznamen die Quantifizierer, die dank der Analyse nie da gewesener Datenmengen behaupteten, dass sie die Risiken immer komplexerer Finanzinstrumente perfekt im Griff hätten. Wie dieser Glaube an die Allmacht der Daten endete, ist bekannt: im größten Crash der Finanzmärkte seit der Weltwirtschaftskrise der dreißiger Jahre.

Biga Data – ein Zukunftsmarkt

Neuland Deutschland hinkt beim Thema Big Data hinterher. Noch Ende 2012 hatte sich laut einer Umfrage des Branchenverbandes Bitkom die Hälfte der deutschen Firmen noch gar nicht mit dem Thema beschäftigt. Das deckt sich mit einer aktuellen Umfrage des Frankfurter IT-Dienstleisters Diomega unter 47 IT-Branchenexperten. Neun von zehn stimmten ganz oder teilweise der Aussage zu, dass die deutsche IT-Szene den Big-Data-Trend bisher verschlafen habe. Doch die Aufholjagd beginnt. Der deutsche Markt soll laut Bitkom bis 2016 jedes Jahr um fast 50 Prozent wachsen. Das wäre deutlich schneller als der Weltmarkt, der laut dieser Prognose jährlich um gut ein Drittel expandieren dürfte.

Große Anbieter Die großen Softwareanbieter von IBM über Microsoft bis hin zu SAP sind in den vergangenen Jahren unter der Überschrift „Big Data“ mit immer neuen Angeboten auf den Markt gekommen. Der Walldorfer Anbieter SAP bietet seit 2010 eine ultraschnelle Datenbank namens Hana an, die mit Hilfe einer sogenannten „In-Memory“-Technik Daten direkt im Arbeitsspeicher abgreifen und auswerten kann, ohne dass sie erst abgelegt werden müssen. IBM bietet unterschiedliche Systeme an, je nachdem, ob die tiefgreifende Analyse oder die Abwicklung von Transaktionen im Mittelpunkt stehen, und ist im Sommer ebenfalls mit einer innovativen Datenbank namens DB2 Blu auf den Markt gekommen. Der US-Anbieter Oracle setzt hingegen auf massive Rechenleistung und schnelle Datenverarbeitung.

Aufsteiger Neben den großen Namen gibt es auch Aufsteiger wie die Karlsruher Firma Blue Yonder. Deren Spezialität ist, unter der Überschrift „predictive analytics“ (voraussagende Analyse) mit Big-Data-Methoden in die Zukunft zu blicken. Da der Markt noch jung sei, könne es bei den Anbietern in den nächsten Jahren zu deutlichen Verschiebungen kommen, heißt es in einer Studie des Ismaninger IT-Marktbeobachters Experton. Auch der vom Stuttgarter IT-Dienstleister GFT ausgelobte Start-up-Wettbewerb Code_n steht 2014 unter dem Motto Big Data.