Ein zentrales Prinzip in der Informatik kann auch auf die Datenqualität übertragen werden: "GIGO" steht in der IT für "Garbage In – Garbarge Out"[1] (Müll rein – Müll raus) und besagt, dass die Ergebnisse nur Müll sein können, wenn die Systeme mit Müll gefüttert werden. Da ein Rechner grundsätzlich nicht unterscheiden kann, ob die Eingaben seines Anwenders zur angedachten Zweckerfüllung tauglich sind, wird er diese unbewertet weiterverarbeiten und zu einem Ergebnis überführen – welches bei Müll-Eingaben dann eben nicht tauglich ist. Zentrale Voraussetzung für die Datenqualität ist daher die qualitätskonforme Eingabe und Speicherung der Daten, da eine nachträgliche Korrektur ungültiger Dateneingaben zuerst identifiziert werden muss und somit zeit- und kostenintensiv ist. Daher muss unumstößlich in alle Anwenderköpfe das GIGO-Prinzip implementiert und verankert werden. Statt "GIGO" spricht man im Datenmanagement auch vom "First Time Right"-Prinzip (von Beginn an korrekt).

Von der Geschäftsleitung bis zum Sachbearbeiter muss auch allen klar werden und sein, dass für gute Datenqualität kein Einmal-Projekt ausreicht. Einige Sofortmaßnahmen bringen sicherlich schnelle Erfolge – auf deren Lorbeeren sollte sich allerdings niemand dauerhaft ausruhen. Hohe Datenqualität erfordert einen dynamischen Prozess, der nie zu Ende geht. Es ist ein ewiger Kreislauf zwischen Messen – Analysieren – Korrigieren – Dokumentieren.

Um die strategische Bedeutung hervorzuheben und ein durchgängiges System im Unternehmen vorzuhalten, empfiehlt es sich, ein "Data-Governance-System" einzuführen. Data Governance steht für das strukturierte Management von Daten. Es enthält Vorgaben, Richtlinien und Prozesse, um Qualität sowie Schutz und Sicherheit von Daten zu gewährleisten. Neben den unternehmensindividuellen Verfahren zur Optimierung von Datenqualität ist in diesem System zusätzlich ein Plan zu finden, wie zur Umsetzung der ambitionierten Anforderungen vorgegangen wird. So sollte z. B. ein Aufdecken von fehlerhaften Daten nicht nur zu einem erhobenen Zeigerfinger und zur Aussage "Da müssen wir in Zukunft besser aufpassen!" führen. Vielmehr sollte dort ein definierter Prozess vorhanden sein, wer was und wie im Fall der Fälle zu tun hat.

Hilfreich ist es auch, die Möglichkeiten der EDV-Systeme zur Verbesserung und Sicherstellung von Datenqualität zu kennen. Diese können sich auf einfache Programmeinstellungen wie Mussfelder beschränken und bis hin zu komplexen Adaptionen wie Workflows, Freigabeverfahren, Berechtigungsgruppen oder Datenfeld-Ausblendungen reichen. Sofern die Möglichkeiten nicht bekannt sind, ist es empfehlenswert, eine Analyse der systemseitigen "On-Board-Mittel" durchzuführen und zusätzlich die Anpassungsfähigkeit hinsichtlich individueller Anforderungen in Erfahrung zu bringen.

 
Praxis-Beispiel

Individuelle Anpassung des Rechnungswesen-Systems

Das Rechnungswesen-System der CopyKing GmbH hat die zeitsparende Funktion, neue Debitoren und Kreditoren mit einer Kopierfunktion anzulegen. Damit soll die Eingabe von Unternehmen mit weitgehend identischen Stammdaten (z. B. einer GmbH & Co. KG und der dazugehörigen Verwaltungs-GmbH) erleichtert werden.

Eine Analyse der Datenqualität bei Debitoren und Kreditoren hat ergeben, dass viele Leichtsinnsfehler auf eben diese Kopierfunktion zurückzuführen sind. So wurde z. B. nach einer Anlage mittels Kopierfunktion übersehen, die kopierte Steuernummer des ursprünglichen Unternehmens durch die andere Steuernummer des neu anzulegenden Unternehmens zu ersetzen.

Aufgrund der Häufung dieser Fehler wurde die Kopierfunktion durch eine individuelle Anpassung des Rechnungswesen-Systems zur Verbesserung der Datenqualität deaktiviert. Der Nutzen einer bequemen und schnellen Dateneingabe mittels Kopierfunktion wurde zugunsten einer besseren Datenqualität aufgegeben.

Abschließend ist noch hervorzuheben, dass eine hohe Datenqualität die vollumfängliche Triebkraft und Unterstützung des Managements erfordert. Es sollte niemals ein Stand-Alone-Projekt der IT-Abteilung oder der Finanzbuchhaltung sein, das neben all den anderen Projekten mal so durchgeführt wird. Wer auch immer sich dem Projekt Datenqualität in den Unternehmen annimmt, er braucht die volle Rückendeckung der Geschäftsleitung – vom ersten Kick-Off bis zur regelmäßigen, routinemäßigen Prozesswiederholung.

[1] IT-Experten sind den beiläufigen Klischees folgend bei der Ausübung ihrer Arbeit bequem; daher haben sie sich angeblich bei Ausarbeitung der GIGO-Phrase beim FIFO-Prinzip aus dem Rechnungswesen bedient.

Das ist nur ein Ausschnitt aus dem Produkt Haufe Finance Office Premium. Sie wollen mehr?

Anmelden und Beitrag in meinem Produkt lesen


Meistgelesene beiträge