2.1 Gesamtrisiko, Risikoaggregation und weitere Herausforderungen

Das Verfahren ist recht einfach und schnell erklärt: Unabhängige Parameter eines Modells (beispielsweise der Absatz oder der Preis in einer Deckungsbeitragsrechnung) werden anstatt mit absoluten Planungswerten mit statistischen Verteilungsfunktionen wie der Normalverteilung, der Gleichverteilung oder der Dreiecksverteilung belegt. Zusätzlich werden Einzelrisiken zum Beispiel mit Schadenshöhe und Eintrittswahrscheinlichkeiten bewertet (in der Regel als binäre Risiken). Diese Risiken wirken auf die Ergebnisgröße oder alternativ auf mehrere Positionen des Modells, falls eine differenzierte Wirkungsanalyse vorgenommen wird.

Aus diesen verschiedenen Teilrisiken und den Schwankungen der Modellvariablen soll nun ein Gesamtrisiko ermittelt werden. Dies sind Ergebnisschwankungen (->Überschuldungsrisiko) oder Zahlungsmittelschwankungen (->Illiquiditätsrisiko). Dazu werden die Definitions- und Verhaltensgleichungen des Planungsmodells genutzt. Dies ist beispielsweise das GuV-Schema zur Ermittlung des Value@Risk auf der Basis des Betriebsergebnisses oder des Cashflow. Der Value@Risk (VaR) ist der absolute Verlust einer Zielgröße, der innerhalb eines Zeitraums mit einer festgelegten Wahrscheinlichkeit nicht überschritten wird.

Je detaillierter das Modell ist, desto besser lassen sich die Wirkungen der Risiken lokalisieren. Damit steigt aber auch die Komplexität, sodass hier eine Balance gefunden werden muss.

Es gibt eine Herausforderung, die es zu lösen gilt: Man kann Risiken und Verteilungsfunktion nicht so einfach aggregieren. Zwar lassen sich gleichförmige Verteilungsfunktionen wie die Normalverteilung durchaus addieren. Bei höchst unterschiedlichen Risiken ist diese Gleichförmigkeit jedoch kaum zu erwarten. Dies ist aber für eine Value@Risk-Berechnung unbedingt notwendig. Die kumulierte Eintrittswahrscheinlichkeit stochastisch unabhängiger Ereignisse wird durch die Multiplikation der Einzelwahrscheinlichkeiten ermittelt. Worst- oder Best-Case-Betrachtungen auf der Basis von Verteilungsgrenzwerten, wenn es sie überhaupt gibt,[1] greifen somit ins Leere, weil damit Situationen beschrieben werden, die praktisch unmöglich sind. In der Einzelbetrachtung sind in diesem Fall Quantilsbetrachtungen (zum Beispiel 95 %-Korridore) hilfreich, in der Gesamtsicht aus dem oben genannten Grund jedoch nicht.

Man behilft sich daher häufig mit einer Multiplikation von Schadenshöhe und Eintrittswahrscheinlichkeit. Aber mit der Mittelwertbildung geht viel Information verloren. Was nutzt der Einbezug eines einprozentigen Abzugs eines Schadens in der Plan-GuV, wenn dieser (beim zugegebenermaßen unwahrscheinlichen Auftreten) die Existenz der Unternehmung infrage stellt? Und es ist nicht mal so, dass mit der Aggregation dieser Mittelwerte ein stochastisch korrekt ermitteltes wahrscheinliches Ergebnis herauskommt.

[1] Die Normalverteilung strebt bekanntermaßen nach unendlich.

2.2 Ablauf der Monte-Carlo-Simulation

Hier setzt die Monte-Carlo-Simulation an. Ein Zufallsgenerator erzeugt für diese Parameter gemäß der hinterlegten Verteilungsfunktion entsprechende Ausprägungen in hoher Anzahl (i. d. R. zwischen 5.000 und 100.000 Ausprägungen). Jede erzeugte Version ist ein theoretisch mögliches Szenario und wird bis zur Zielgröße durchkalkuliert. Binäre Risiken treten entsprechend ihrer Häufigkeit auf. Ein Beispiel: Ist die Wahrscheinlichkeit des Eintritts eines Risikoereignisses 3 %, tritt das Ereignis in 3.000 von 100.000 Szenarien auf.

Abhängigkeiten sollten bei der Simulation nicht vernachlässigt werden. Ergo sollten korrelierte Zufallszahlen erzeugt werden. Hierzu gibt es spezifische Verfahren wie beispielsweise die Iman-Conover-Methode. Ohne auf Details einzugehen, wird im Folgenden noch gezeigt, wie diese Funktion genutzt werden kann.

Die Verteilung der Ergebnisgröße wird anschließend durch die Kalkulation der Modellabhängigkeiten für alle Szenarien berechnet. Der Ergebnisverlauf über alle Szenarien entspricht in der Regel keiner Standardverteilung, so dass die Häufigkeiten als Funktionsapproximation gezählt werden. Über Klassenbildung (das Unterteilen der Bandbreiten in gleich breite Intervalle) wird die Verteilungsfunktion durch Zählen des Auftretens erzeugt. Ein Histogramm der Häufigkeiten zeigt die Struktur der Verteilung (Abb. 1).

Abb. 1: Histogramm der Ergebnisse

Über diese Verteilungsfunktion kann der Value@Risk abgeleitet werden. Das linke 5 %-Quantil gibt beispielsweise an, dass 5 % der Simulationsszenarien unterhalb dieses Value@Risk-Wertes liegt. Dies ist also die Schadenshöhe, die mit dieser Wahrscheinlichkeit nicht unterschritten wird. Die vertikale Linie in Abb. 1 stellt den Value@Risk dar.

Schließlich ist es sinnvoll, diesen Wert mit dem Deckungskapital (in der Regel das Eigenkapital) abzugleichen. Überschreitet der Value@Risk das Eigenkapital, besteht eine Bestandsgefährdung, die größer ist als das akzeptierte Risiko. Je nach Risikoappetit sind Maßnahmen zu entwickeln.

Das ist nur ein Ausschnitt aus dem Produkt Controlling Office. Sie wollen mehr?

Anmelden und Beitrag in meinem Produkt lesen


Meistgelesene beiträge