1. Aufgabenverständnis

Ausgangspunkt des CRISP-DM ist das Aufgabenverständnis innerhalb der jeweiligen Fachabteilung, die zu Beginn die Erwartungshaltung sowie eine grobe Aufgabenstellung für den Data Scientist skizziert, die sukzessiv verfeinert und in datenanalytische Teilaufgaben zerlegt werden kann. Dabei ist es seitens der Fachabteilung nicht zwingend erforderlich, die doch recht hohe Anzahl an Analyseverfahren im Detail zu kennen, aber die Zielstellungen der wesentlichen Verfahrensgruppen sollten im Wesentlichen bekannt sein.

2. Datenverständnis

Für das Datenverständnis sind die Daten verschiedener Speicherorte, Dateien unterschiedlichen Formats und verschiedene Dokumentarten zu sammeln und zu verstehen.[1] Dabei ist eine Rückkopplung in zweifacher Hinsicht mit dem Aufgabenverständnis zwingend. Zum einen ist die Frage zu klären, welche Rohdaten zur Verfügung stehen, was wiederum entweder zu einer Eingrenzung oder sogar zu einer Erweiterung der Aufgabenstellung führen kann. Zum anderen unterscheiden sich die Verfahren hinsichtlich der Ergebnisse und der benötigten unterschiedlichen Datenstrukturen, was wiederum die Definition der Teilaufgaben beeinflusst.[2]

3. Datenaufbereitung

In der Datenaufbereitung, die einen oft unterschätzten beträchtlichen Teil der Projektzeit in Anspruch nimmt, entstehen aus Rohdaten strukturierte und vollständige Daten mit dem Ziel, den Informationsgehalt zu verdichten. Dabei sind Daten für die spätere Analyse vorzubereiten und nachfolgend zu verknüpfen.[3]

4. Modellbildung

Anschließend wird das Analysemodell entwickelt. Auch hier ist zu erwarten, dass es zu Rückkopplungsschleifen kommt, da im Rahmen der Modellbildung häufig neue Erkenntnisse über die Daten (z. B. in Datensätzen nicht eindeutig zuordenbare oder fehlende Werte) gewonnen werden, die wiederum in die weiteren Aufbereitungsschritte einfließen.

5. Ergebnisqualität beurteilen

Nach Fertigstellung des Analysemodells muss die Ergebnisqualität beurteilt werden. Diesem Schritt kommt eine sehr hohe Bedeutung zu, da beim Data Mining der Analyseprozess die Validität sicherstellen muss, da sich diese nicht aus der Datenqualität ableitet. An diesem Punkt ist wieder die Zusammenarbeit zwischen Fachabteilung und Data Scientist notwendig, da die Qualität meist nur im konkreten Anwendungskontext bewertet werden kann.

6. Implementierung

Funktionierende Modelle werden danach in die Anwendung überführt, d. h., entweder werden die Ergebnisse für datengetriebene Entscheidung genutzt oder die Modelle werden zur dauerhaften Nutzung implementiert. Während der Implementierung ergeben sich ggf. neue Fragen, wodurch der Prozess von neuem starten kann.[4]

[1] Vgl. Simitsis/Vassiliadis 2018, S. 1432–1440.
[2] Vgl. Ng/Soo 2018, S. 12.
[3] Vgl. Runkler 2010, S. 21.
[4] Vgl. Provost/Fawcett 2017, S. 52–61; Cleve/Lämmel 2016, S. 6–9.

Das ist nur ein Ausschnitt aus dem Produkt Controlling Office. Sie wollen mehr?

Anmelden und Beitrag in meinem Produkt lesen


Meistgelesene beiträge