Risikomanagement: Manipulationsprüfungen mit statistischen Tests

Zusammenfassung

Zum Tagesgeschäft des Controllers gehört die Arbeit mit großen Zahlenmengen, die aus allen Teilen des betrieblichen Geschehens stammen und als Grundlage für die Bewertung der Geschäftsprozesse dienen. Dabei kommt der Integrität der Daten eine fundamentale Rolle zu, denn nur mit richtigen Daten können auch die richtigen Entscheidungen getroffen werden.

Aufgrund der zunehmenden Vernetzung hat auch die Bedeutung gezielter Datenveränderungen kontinuierlich zugenommen, sodass das Auffinden von verfälschten oder manipulierten Daten zum festen Bestandteil des betrieblichen Risikomanagements gehört.

Seit längerem erfreuen sich statistische Verfahren im betrieblichen Risikomanagement einer zunehmenden Beliebtheit, wobei hierbei Tests auf Zufälligkeit eine wichtige Rolle spielen, die die Annahme prüfen, ob sich vorliegende Beobachtungswerte einer Datenmenge in ihrer Reihenfolge eher zufällig zusammensetzen oder nicht. In diesem Beitrag wird der Einsatz von Tests auf Zufälligkeit unter Verwendung von MS Excel vorgestellt, die die diskutierten Verfahren dem Tagesgeschäft des Controllers erschließen.

1 Einleitung

Risikomanagement gesetzlich geregelt

Betriebliche Datenmengen dienen häufig als Grundlage der Entscheidungsfindung, sodass der Integrität und Richtigkeit der verwendeten Daten eine fundamentale Rolle zukommt. Daher stellt das Auffinden von falschen oder manipulierten Daten einen wichtigen Bereich des betrieblichen Risikomanagements dar, denn in wirtschaftlich sensiblen Bereichen wie der Rechnungslegung oder dem Finanz- und EDV-Bereich können fehlerhafte oder verfälschte Daten schnell existenzbedrohende Ausmaße annehmen. Deshalb hat der Gesetzgeber im KonTraG Vorschriften zur Implementierung effektiver Risikomanagementsysteme erlassen.

Benford‘s Law

Zur Analyse betrieblicher Zahlenmengen gibt es eine große Anzahl von Verfahren und Methoden, die beim Aufspüren von Manipulationen äußerst erfolgreich in der Praxis eingesetzt werden. Ein mathematisch überraschend einfaches Verfahren ist unter dem Namen Gesetz von Benford, auch Benford’s Law, bekannt geworden mit dem Ansatz, dass Strukturaussagen über Ziffernverteilungen in bestimmten Datenmengen durchgeführt werden können. Das Gesetz von Benford hat in der betrieblichen Praxis seine Leistungsfähigkeit beim Auffindung von Betrugsfällen und Abrechnungsmanipulationen bewiesen. Es hat aber den Nachteil, dass stark einschränkende Anforderungen an die zu analysierenden Datenmengen gestellt werden müssen, sodass sich ein Großteil der betrieblichen Zahlenmengen der Anwendung dieses Verfahrens entzieht.

Statistische Tests

Daher widmet sich dieser Beitrag einem anderen Zugang, bei dem die Anwendung der wichtigsten statistischen Tests auf Zufälligkeit in den Vordergrund gestellt wurden. Der Hintergrund des Ansatzes beruht auf der Annahme, dass sich betriebliche Zahlenmengen häufig als Ergebnis betrieblicher Zufallsprozesse, wie etwa die zeitliche Reihenfolge der Beträge eingegangener Rechnungen, ergeben und daher selbst Zufallsmengen darstellen, sodass sich die zufällige Zusammensetzung auch mit mathematischen Mitteln objektiv nachweisen lassen muss.

Die vorgestellten Methoden werden meist dem Gebiet des "Statistical Auditing" zugezählt und erfreuen sich daher auch in der Revision zunehmender Beliebtheit. Durch den Einsatz von MS Excel halten sich dabei die verwendeten mathematischen Grundlagen im erträglichen Rahmen und werden durch eine beiliegende Excel-Datei, die die diskutierten Konzepte an einem praktischen Beispiel erläutert, leicht verständlich. Die Excel-Datei kann darüber hinaus auch als Muster für verwandte Fragestellungen im betrieblichen Alltag dienen.

2 Statistische Grundbegriffe

Zunächst sollen einige statistische Grundbegriffe in Erinnerung gerufen werden, die im Nachfolgenden für das Verständnis notwendig sind. So unterscheidet der Statistiker bei einer Erhebung, d. h. bei der Informationsbeschaffung, zwischen einer Teilerhebung und einer Vollerhebung, wobei bei einer Erhebung Daten über bestimmte Eigenschaften oder auch Merkmale von Objekten zusammengetragen werden. Eigenschaften von untersuchten Objekten besitzen Ausprägungen, d. h. einen Preis, eine Größe oder ein bestimmtes Qualitätsniveau. In diesem Beitrag werden als Ausprägungen nur Zahlenwerte erhoben.

Bei der Untersuchung von Eigenschaften der Menge aller interessierenden Objekte, der Grundgesamtheit, beschränkt man sich häufig aus Effizienzgründen stellvertretend für die Grundgesamtheit auf eine bestimmte Teilmenge von Objekten, d. h. eine Stichprobe. Eine Stichprobe oder auch Zufallsauswahl ist dadurch gekennzeichnet, dass die Auswahl der Objekte, die in der Stichprobe untersucht werden, zufällig erfolgt, d. h., jedes Objekt der Grundgesamtheit besitzt die gleiche Wahrscheinlichkeit, in die Stichprobe zu gelangen.

Liegt eine Stichprobe vor, so kann man statistische Eigenschaften und Kennzahlen dieser Stichprobe ermitteln und hieraus Schätzungen für die Eigenschaften und Kennzahlen der Grundgesamtheit vornehmen. Dabei nennt man die statistischen Größen ...

Das ist nur ein Ausschnitt aus dem Produkt Finance Office Professional. Sie wollen mehr? Dann testen Sie hier live & unverbindlich Finance Office Professional 30 Minuten lang und lesen Sie den gesamten Inhalt.


Meistgelesene beiträge