13.02.2013 | Top-Thema Interview mit Günther Stürner und Michael Schmidt-Voigt

"Big Data ist keine Magie, sondern harte Arbeit"

Partner CRM für alle

Kapitel
"Data Mining und Text Mining sind erprobte Disziplinen", sagt Günther Stürner, Vice President Sales Consulting Oracle Deutschland.
Bild: Oracle

Wer seine Daten heute links liegen lässt, wird auch nicht von Big Data profitieren. Davon ist Günther Stürner, Vice President Sales Consulting Oracle Deutschland, überzeugt.

acquisa: IT-Experten sehen in Big Data große Chancen für Unternehmen. Die Wette: deutlich umfassendere, validere und vor allem schnellere Informationen über Kundenverhalten, Trends und Innovationen für bessere Business-Entscheidungen. Für Konzerne kein Problem – aber was macht der Mittelstand? Wie sollten mittelständische Unternehmen mit dem Thema umgehen, welche Strukturen sollten aufgebaut werden?

Günther Stürner: Lassen Sie mich zuerst eine Definition von Big Data versuchen: „Bei BIG DATA handelt es sich um eine neue Klasse von Daten, die meist eine sehr geringe Informationsdichte besitzt und die bisher selten zur weiteren Verarbeitung genutzt wurde. Mit einem BIG DATA-Ansatz erweitern wir unsere bisherigen Datenanalysen durch Einbeziehung dieser neuen Datenklasse, um noch bessere und eventuell völlig neue Erkenntnisse aus den Daten zu gewinnen“. In vielen heutigen Systemen werden die Daten oftmals nur sehr unzureichend analysiert. Der Wert der Informationen, die in diesen (konventionellen) Daten stecken, wird oft völlig ignoriert. Hier liegt noch enorm viel Potenzial brach, sowohl bei Konzernen wie auch bei mittelständischen Unternehmen. Dass dieses Potenzial gehoben werden kann, ist nicht primär eine Frage der Technologien− die gibt es bereits − sondern eine Frage des Willens auf der Seite der Unternehmen. Wer seine heutigen Daten links liegen lässt und daraus heute keinen Nutzen zieht, wird auch mit Big Data nichts anfangen können. Dies gilt für den Konzern wie für jedes mittelständische Unternehmen. Big Data ist keine Magie, sondern fortgesetzte harte Arbeit.

Michael Schmidt-Voigt: Im Zeitalter der Cloud sind diese Informationen grundsätzlich für jeden erschwinglich. Der Vorteil dabei ist, dass die Infrastruktur und Software durch Cloud-Anbieter zur Verfügung gestellt und gewartet werden und der mittelständische Kunde nur für das bezahlt, was er wirklich nutzt. Ein Beispiel sind die sozialen Netzwerke, aus denen wir ganz sicher mehr über das Kundenverhalten lernen können als mit traditionellen Umfragen und Analysen.

acquisa: Die IDC Studie „Digital Universe“ kommt zu dem Schluss, dass die meisten neuen Daten unstrukturiert und nur als Datenschnipsel gespeichert werden. Alarmierend sei die gewaltige Menge an Daten, die zwar potenziell nützlich, aber einfach nicht mehr auffindbar ist. Wie verhindern wir, dass künftig zwar theoretisch alle möglichen Daten (z.B. über Kundenverhalten) verfügbar sind – aber niemand mehr weiß, wo er sie findet?

Stürner: Es ist ein Trugschluss zu meinen, dass man nur genügend Daten haben muss, die irgendwie ausgewertet werden, um dann automatisch bessere Entscheidungsgrundlagen zu erhalten. Jede Firma muss für sich entscheiden, wie die Daten ausgewertet werden und welche Daten sie eventuell noch benötigt, um bestimmte Informationen zu gewinnen, die heute noch fehlen.

Schmidt-Voigt: Wieder sind die Daten aus dem Social Media Bereich das beste Beispiel, die maximal unstrukturiert sind und auch nicht immer wörtlich zu nehmen sind – man denke an ironische Bemerkungen („das ist ja eine ganz tolle Firma“ o.ä.). Hier werden Werkzeuge wie ein Social Engagement Monitor unabdingbar, um das „Sentiment“, also die Richtung der unstrukturierten Daten zu erfassen und zu bewerten. Die Werkzeuge dafür liegen in der Cloud. Der Nutzer muss nicht mehr wissen, wo die Daten zu finden sind, die Anwendung erledigt das für ihn. Die Verbindung von Daten, die in den Unternehmen vorliegen, und öffentlichen Unternehmensdaten der Kunden von kommerziellen Anbietern bietet die Möglichkeit, eine Sicht auf den Kunden zu bekommen, wie sie vorher nicht möglich war.

acquisa: Wie geht die Branche mit der Herausforderung um, Lösungen für die Analyse völlig unstrukturierter Daten zu finden? Das klingt wie der berühmte Versuch mit der Nadel im Heu – nur dass ich noch nicht einmal weiß, ob ich nach einer Nadel, einem Ohrring oder einem Streichholz suchen soll. Können unstrukturierte Daten überhaupt automatisiert ausgewertet werden?

Stürner: Dieses Problem gibt es nicht erst, seit Big Data „erfunden“ wurde. Data Mining und Text Mining sind erprobte Disziplinen, um Daten zu analysieren und bisher unbekannte Strukturen und Zusammenhänge zu finden. Dazu werden komplexe Algorithmen und unterschiedliche Techniken benutzt. Diese Produkte sind bereits am Markt verfügbar, es gibt aber zu wenig Spezialisten, die diese Produkte nutzen und zu wenig Firmen, die sich um diese Daten und die daraus abzuleitenden Informationen kümmern. Mit Big Data kommen jedoch neue Klassen von Daten hinzu, die aufgrund ihrer Art und ihres oft sehr geringen Informationsgehaltes auf anderen Plattformen abgelegt werden (Stichwort: Hadoop, HDFS, noSQL). Sie werden dort verarbeitet, verdichtet und in ein bestehendes Data Warehouse überführt beziehungsweise direkt auf diesen Plattformen analysiert. Ohne entsprechende Daten-Spezialisten (wir sprechen hier neuerdings von „Data Scientists“), welche die entsprechenden Tools nutzen können, die statistischen Verfahren kennen und die Ergebnisse im Kontext des Unternehmens interpretieren können, bleibt es ein Heuhaufen ohne großen Wert.

Schmidt-Voigt: Machbar ist das schon. Sucht ein Mitarbeiter in den Social Media nur nach seinem Firmennamen, wird er üblicherweise viel zu viele Treffer finden. Es muss also nach den relevanten Treffern gefiltert werden, und die Systeme müssen mittels geeigneter Algorithmen selbst lernen, welches die besten Treffer sind. Wichtig ist es dabei, die Datenmengen zunächst einzuschränken, wozu eine Vielzahl von Technologien erforderlich ist, z.B. zur Organisation unstrukturierter Daten, zur Bereitstellung möglichst vieler Datenquellen oder auch zur Analyse der großen Datensätze. Unter Einsatz von Predictive Modeling startet man ausgehend von einer Startannahme (z.B. Nadel) mit einem Modell, das selbstlernend immer weiter verfeinert wird, bis man am Ende weiß, wonach man idealerweise suchen sollte (z.B. Ohrring).

Schlagworte zum Thema:  Big Data, CRM, CRM-Systeme, CRM-Datenbank

Aktuell

Meistgelesen