Einer der Schwerpunkte bei der Entwicklung von künstliche Intelligenz lag in den letzten Jahren beim maschinellen Lernen. Machine Learning ist ein Teilgebiet der künstlichen Intelligenz. Einfaches maschinelles Lernen zeigt sich im etablierten Data Mining. Aus einer Liste von Attributen werden beispielsweise Gemeinsamkeiten zu Kategorien verdichtet oder erklärende Abhängigkeiten zu einer Zielvariable gesucht.
Für den Controller ist beispielsweise interessant, was den Absatz treibt oder auch was die Kunden veranlasst, Zahlungen früher, später oder gar nicht zu leisten. Maschinelles Lernen ist aber in der Regel auf eng abgegrenzte Bereiche beschränkt. Ein Algorithmus begibt sich beispielsweise nicht selbst auf die Informationssuche, sondern basiert auf gut strukturierten Daten, die in der Regel aufwendig aufbereitet werden müssen. Das Parametrisieren benötigt methodische Expertise, die der Datenwissenschaftler beisteuert.
Man kann 3 wesentliche Klassen von Machine-Learning-Algorithmen unterscheiden.
- Überwachtes Lernen: Hierbei wird der Algorithmus gezielt mit Datensätzen trainiert, die Inputvariablen und Zielvariablen enthalten, um ihm so den Zusammenhang zwischen den Daten anzutrainieren. Ein Beispiel betrifft Kundendatensätze mit Kündigungsinformationen. Es gilt nun herauszufinden, was die Gründe sind, warum Kunden kündigen. Allerdings liefert Machine Learning nur signifikante Abhängigkeiten, aber keine Ursachen. Ein empirisch ermittelter Preis-Absatz-Zusammenhang kann signifikant sein. Kausal ist er deswegen noch lange nicht.
- Unüberwachtes Lernen: Eine Zielvariable ist von vornherein nicht bekannt. Der Algorithmus selbst klassifiziert die Daten und erkennt mögliche Muster in ihnen. So können möglichst homogene Gruppen (zum Beispiel Kundensegmente) erstellt werden. Auch das Erkennen von Ausreißern wird über unüberwachtes Lernen ermöglicht.
- Zunehmende Beliebtheit erfährt das verstärkende Lernen (Reinforcement Learning). Dieses kommt zum Einsatz, wenn Beziehungen zwischen Input und Output dynamisch oder so komplex sind, dass sie nicht mehr über endliche Wenn-Dann-Beziehungen dargestellt werden können. Ein Algorithmus erlernt eine spezifische Aufgabe daher durch den Versuch, sich anhand von Reaktionen aus dem Umfeld anzupassen. Die Reaktionen sind Belohnungen für richtiges Handeln und Bestrafungen für falsches Handeln. Bei Strategiespielen wie beispielsweise Schach, ist dieses Lernen effizient: Hier kann sich der Algorithmus selbst trainieren, indem er gegen sich selbst spielt. Da er die Verbesserung der Situation durch die jeweilige Aktion selbst einschätzen kann, ist üblicherweise eine beachtliche Lernkurve zu betrachten. Bei betriebswirtschaftlichen Entscheidungen können Optimierungsstrategien gefunden werden, wie beispielsweise bei Wettbewerbsstrategien unter Berücksichtigung von Reaktionen.
Ziel aktueller Bemühungen ist es, dass die Algorithmen immer robuster und selbstständiger werden, indem sie Zusammenhänge nicht nur erkennen, sondern auch verstehen und sich auch selbstständig auf die Informationssuche begeben. Das ist mit klassischen Algorithmen so nicht möglich. Die Konfiguration eines Prognose-Modells ist auch keine triviale Aufgabe: Eine einfache Regressionsanalyse reagiert beispielsweise empfindlich auf Korrelationen zwischen den unabhängigen Variablen. Vorgeschaltete Aufbereitungen wie Faktoren- oder Hauptkomponentenanalyse können hier weiterhelfen.
Aber zur Aufbereitung der Daten ist eine umfangreiche methodische Expertise notwendig. ARIMA als weiteres Beispiel ist ein klassisches Zeitreihenverfahren und benötigt stationäre Daten als Analysegrundlage. Auch sind hier Tests auf statistische Abhängigkeit voranzustellen und gegebenenfalls eine Transformation vorzunehmen.
Robusten Algorithmen wie neuronalen Netze ist es hingegen weitestgehend egal, was als Eingabe verwendet wird. Gemäß dem Motto: "viel hilft viel" lernt der Algorithmus aus allen gelieferten Informationen.
Mittlerweile etabliert sich ein Zweig des automatisierten Machine Learnings: Generalisierende Problemlöser unter der Bezeichnung "Augmented Analytics" sind stark im Kommen: Viele der notwendigen Konfigurationsentscheidungen können automatisiert werden. Geeignete Algorithmen können aufgrund standardisierter Qualitätsmaße automatisch ausgewählt werden. Eine Auswahl erklärungsrelevanter Varianten erfolgt ebenfalls. Dies ist eine ganz entscheidende Entwicklung, um diese Methoden in die Fachabteilungen tragen zu können. Es reicht dann aus, die Problemstellung mehr oder weniger formal zu beschreiben. Alles andere erledigt der Algorithmus.
Moderne Verfahren können nun immer komplexere Zusammenhänge aufdecken. Dies wird als Deep Learning bezeichnet. Deep Learning ist ein relativ neues Teilgebiet von Machine Learning und stellt eine Weiterentwicklung neuronaler Netze dar. Durch tiefere verdeckte Schichten können auch komplexere Zusammenhänge erkannt und abgebildet werden. Deep Learning benötigt aber mehr Daten und auch Rechenleistung. Für das Forec...