Ungeachtet des konkreten Anwendungsfalls lässt sich mittlerweile ein "best practice" im Vorgehensmodell für die Umsetzung von Predictive-Analytics-Anwendungsfällen identifizieren. Im Folgenden werden die 9 Schritte in der Entwicklung eines Predictive-Analytics-Anwendungsfalls ("Use Case") beschrieben, die in Projekten von Horváth & Partners regelmäßig zur Anwendung kommen.

Abb. 4: Vorgehen im Predictive Analytics Projekt

3.1 Use Case Assessment

Im ersten Schritt werden grundlegende Potenziale hinsichtlich des Einsatzes von Predictive Analytics mit dem Unternehmen diskutiert, die Hauptprozesse betrachtet und mögliche Use Cases evaluiert. Bei der Identifizierung und Evaluation der möglichen Use Cases kommt insbesondere die Stärke der Kombination von Branchenexperten, die das Marktumfeld genau kennen, und Fachexperten, die die Potenziale und Grenzen von Predictive Analytics einschätzen können, zum Tragen. Nach einer quantitativen und qualitativen Analyse der infrage kommenden Use Cases werden einer oder mehrere davon priorisiert und zur Umsetzung ausgewählt. In der Auswahl spielen vor allem Kriterien wie Komplexität der Lösung, Verfügbarkeit von Daten, mögliche Synergieeffekte sowie erwarteter Aufwand und Gewinn, eine entscheidende Rolle.

3.2 Use Case Spezifizierung

Im zweiten Schritt muss die Ist-Situation umfassend analysiert werden, um zu verstehen, ob die zugrundeliegende Fragestellung für den ausgewählten Use Case richtig gesetzt ist. Die Erfahrung der letzten Jahre zeigt deutlich, dass die meisten Firmen schon in diesem ersten Schritt die größten Fehler machen.

 
Praxis-Beispiel

Forecast-Methoden im Sales-Bereich

Zur besseren Antizipation von Nachfrageschwankungen bei großen, regelmäßigen Nachfragemengen kann ein Predictive Sales Forecast das richtige Instrument sein. Basiert das Geschäftsmodell jedoch auf wenigen Leuchtturmkunden mit unregelmäßigen, großen Transaktionen, so ist der Aufbau eines professionellen Key-Account-Managements wahrscheinlich der vielversprechendere Ansatz.

Um zu verhindern, dass Use Cases falsch angegangen werden, ist die detaillierte und präzise Beschreibung der Problemstellung inkl. der erwarteten Projektergebnisse erfolgskritisch. Der entsprechende Aufwand für die Workshops ist somit eine gute Investition in jedes Projekt. In vielen Fällen lohnt es sich sogar, die spätere Nutzung der Modellergebnisse in sogenannten Mock-ups zu simulieren, um ein Gefühl für das Arbeiten mit den neuen Instrumenten zu bekommen und deren Mehrwert im operativen Prozess zu verstehen.

Mit dem zweiten Schritt beginnt auch die eigentliche Arbeit an den Grundlagen. Die modellrelevanten Daten (intern wie extern) für die Modellentwicklung werden konkretisiert und die Datenanforderungen festgelegt, d. h. sämtliche Felder und Datensets. Das Steering Lab von Horváth & Partners definiert und dokumentiert dazu, in Zusammenarbeit mit dem Auftraggeber, alle Anforderungen an die zu liefernden Daten. Diese erste Zusammenarbeit fördert bereits den Wissenstransfer, der Grundvoraussetzung für eine zukünftige Weiterentwicklung des Use Cases im Unternehmen ist. Nicht zuletzt wird in diesem frühen Stadium auch die Grundstruktur der Modelle definiert.

3.3 Data Analysis

Spätestens vor der Bereitstellung und Analyse der Unternehmensdaten ist es wichtig, entsprechende Datensicherheitsregelungen wie Non-Disclosure-Agreements (NDAs) zwischen den beteiligten Unternehmen zu vereinbaren. Sind die Verträge abgeschlossen und die Datensicherheit gewährleistet, kann mit dem Angleichen und Harmonisieren der Daten begonnen werden. Dazu sind projektindividuelle Schnittstellen und Datenbanken aufzubauen und auch die komplette Datenlogistik zu organisieren. Zu Beginn von Schritt 3 müssen alle Daten vorliegen, alle Datenmodelle erstellt und die Daten entsprechend integriert sein.

Die Datenaufbereitung und -analyse ist einer der aufwändigsten Prozessschritte. Hier werden die Daten formatiert, konsolidiert (bspw. werden Dutzende Excel Dateien in eine konsistente Datenbank überführt), wo erforderlich korrigiert (z. B. auf Vollständigkeit oder hinsichtlich Einmal-Effekten), unvollständige Daten werden dokumentiert und ggf. maschinell ergänzt.

 
Achtung

Datenqualität kann sich schnell ändern

Einige Unternehmen, die bereits hohe Summen in moderne ERP-Systeme wie SAP S/4HANA investiert haben, gehen intuitiv von einer hohen Datengüte aus. Diese Unternehmen müssen leider oft erkennen, dass insbesondere jede Strukturänderung, wie bspw. neue Produktlinien oder – offensichtlicher – die Integration oder der Verkauf von Unternehmensbereichen, einen manuellen Korrekturaufwand zur Folge hat.

Liegen die Daten am Ende dieses Prozesses in der erforderlichen Güte und Quantität vor, können die ersten Analysen hinsichtlich der Zielstellung durchgeführt werden. Diese Analysen stellen oftmals bereits einen erheblichen Mehrwert dar, da sie einen tieferen Einblick in das eigene Unternehmen und die Prozesse erlauben als es aggregierte Management Reports zulassen. An dieser Stelle ist der enge Austausch zwischen Data Scientists und Fachabteilungen vo...

Das ist nur ein Ausschnitt aus dem Produkt Haufe Finance Office Premium. Sie wollen mehr?

Anmelden und Beitrag in meinem Produkt lesen


Meistgelesene beiträge