Veröffentlicht am 07.05.2019

Steigende Anforderungen in Bezug auf Umfang, Verlässlichkeit, Qualität und Frequenz in Konzernkonsolidierung- und Berichtswesen, Planung, Forecast, Management-Reporting, Analyse u.v.m. beschäftigen die Unternehmen in hohem Maße. Angesichts der legalen und Management-orientierten Herausforderungen in der finanzwirtschaftlichen Steuerung reicht der Abruf von Daten auf Zuruf im Konzern längst nicht mehr aus. Trotzdem ist es noch immer weit verbreitete Praxis, Daten an verschiedenen Stellen, in verschiedenen Formaten und in verschiedenen Logiken singulär zu halten. Am liebsten in Excel-Modellen. Und das weltweit. Enormer personeller und manueller Aufwand, hohe Fehleranfälligkeit, Zeitverlust und Kosten sind die Konsequenz. Doch warum verharren Unternehmen in längst ausgedienten Prozessen?

 

Die Befürchtung, dass umfassende Grundlagenarbeit im Bereich Datenmanagement im operativen Alltagsgeschäft nicht darstellbar ist, ist längst nicht mehr zeitgemäß. Einerseits, weil moderne Tools und Automatisierung bewährte Industriestandards liefern, auf die man vertrauen kann. Andererseits, weil das dynamische Marktgeschehen Unternehmen massiv dazu zwingt, jederzeit entscheidungsfähig zu sein. Es geht also um nicht weniger als um die Aufrechterhaltung der Wettbewerbsfähigkeit. Nicht zu handeln ist keine Option.

 

Wie eine sichere Daten-Basis der Markt-Dynamik Stand hält

 

Weltweit agierende Unternehmen wie der Automobil-Zulieferer ElringKlinger, der Handels- und Industriekonzern Cremer, der Elektronik-Großhändler Wentronic oder die Landesbank Baden-Württemberg haben dies längst erkannt und zeigen, wie intelligentes und durchgängiges Datenmanagement von manuellem Aufwand befreit und Platz schafft für steuerungs- und erfolgsrelevante Themen. Denn modernes Financial Performance Management (FPM) ist einer Dynamik unterworfen, die mit Tools der Vergangenheit längst nicht mehr darstellbar ist.

 

Das bedeutet: Die eigenen Hausaufgaben sind zu machen. Lieber gestern als heute. Denn auch die besten Tools und Standards nützen nichts, wenn Grundlagen für die Datenlogik nicht fundiert am Unternehmensmodell entlang ausgerichtet sind. Es geht also darum, Vorsystemlandschaften zu überprüfen, Silos aufzulösen, Redundanzen aufzudecken, manuelle Prozesse zu klären u.v.m. Warum das so entscheidend ist, zeigt die Erfahrung aus der Praxis.

 

Wie Konzernsteuerung gelingt, wenn die Basis stimmt

 

„Wildwuchs im Quadrat“ nennt Andreas Göppinger, Projektmanager Finance bei ElringKLinger, den Versuch, Daten aller Gesellschaften in 22 Ländern rund um den Globus beispielsweise über Excel einzusammeln. Direktanbindung sowie Online- und Offline-Erfassung der Daten aus den verschiedenen Vorsystemen weltweit haben im Unternehmen dafür gesorgt, dass die Datenqualität dort erhöht wurde, wo die Daten entstehen. Und das 24/7. Das löst die Ressourcenbindung auf, die durch immense manuelle Prozesse entsteht, schafft Synergien und setzt neues Potenzial frei.

 

Auch die Landesbank Baden-Württemberg wäre nicht in der Lage, den hohen regulatorischen Anforderungen im Bankenumfeld sowie den monatlichen Konsolidierungs- und Reporting-Zyklus darzustellen, wären Datenprozesse an der Basis nicht sauber modelliert. Unabdingbar sei dabei auch die Möglichkeit, Anpassungen beispielsweise von Validierungsregeln jederzeit schnell und flexibel in der Fachabteilung ohne IT-Untersetzung vorzunehmen, so Figen Tekin aus dem Group Accounting.

 

Dass bereits in den ersten Monaten eines Projektes Ergebnisse erzielt werden können, die mit validen Zahlen Management-Reporting und Analyse auf eine neue Flughöhe bringen, das ist die Erfahrung von Eike Neumann, Leiter Recht und Controlling bei Wentronic. Und Angela Reinke, Senior Manager Consolidation bei dem weltweiten Handels- und Industriekonzern CREMER, weiß, wie es durch präzises Datenmanagement gelungen ist, die legale Zahlenwelt und das Management-Reporting aus einem Guss zu realisieren.

 

Was nötig ist, um die Datenqualität zu steigern

 

Damit solche Entwicklungsstufen in der finanzwirtschaftlichen Steuerung erreicht werden können, bedarf es an Willen an der Konzernspitze: Nicht nur der Entschluss, alte Pfade zu verlassen, entscheidet – auch die konkrete Bereitschaft zu konzernweiten Standards. Es beginnt ganz praktisch mit klaren Vorgaben, die zum Beispiel in einem Konzernhandbuch dokumentiert sowie in einen Finanzkalender überführt werden. In Abstimmung unter anderem mit Tochtergesellschaften muss kommuniziert werden, wer welche Daten in welchem Format zu welchem Zeitpunkt an die Konzernzentrale liefert. Denn Deadlines sind nicht nur im Hinblick auf gesetzliche Meldefristen, sondern auch für Management-Entscheidungen neuralgisch.

Wenn diese Voraussetzungen gegeben sind, auf welche Aspekte kommt es dann an? Wie baut man ein intelligentes Datenmanagement auf? Hier bedarf es eines tiefen Blickes in das jeweilige Unternehmen. Ganz generell kann man jedoch sagen: Ideal und zeitgemäß für Konzerne aller Branchen und Größen sind online vernetzte Architekturen, die einerseits weitreichende Standards mitliefern sowie andererseits die nötige Flexibilität für die Abbildung individueller Anforderungen.

Was Datenqualität ausmacht

Prinzipiell sollten die Daten für den FPM-Prozess harmonisiert und abgestimmt in einer Quelle vorliegen, dem so genannten Single Point of Truth. Idealerweise werden die Daten bereits originär, d.h. bei ihrer Entstehung, mit der notwendigen Qualität generiert, spätestens jedoch bei der Einbringung in die FPM-Lösung muss eine Prüfung auf Vollständigkeit und Konsistenz erfolgen. Hierfür können unterschiedliche Werkzeuge eingesetzt werden.

Zwar lassen sich standardisierte oder individuelle Prüfregeln zur Datenabstimmung zweifelsohne auch mit Excel erzeugen – doch kann die Wartbarkeit problematisch oder gar riskant sein. Funktionsstarke FPM-Lösungen liefern hier bereits im Standard eine Großzahl von systemunterstützten Prüfregeln, die beispielsweise bei einer Erweiterung der Stammdaten um Konten oder Positionen sofort greifen. Ein leistungsstarker Werkzeugkoffer erleichtert zudem das Anlegen von ergänzenden individuellen Prüfregeln und sorgt damit ebenfalls für mehr Datenqualität.

Was man empfehlen kann

 

Für welche Tools und Andienungswege ein Unternehmen sich schließlich entscheidet, ist von der jeweiligen Ausgangslage der Gesellschaften abhängig. Auch die individuellen Vorstellungen in Bezug auf die generelle Organisationsform sowie der Inhalte des Konzernberichtswesens und der Verantwortlichkeiten spielen eine Rolle. Unverzichtbar ist bei allem eine genaue Evaluierung des Ist-Zustandes, um daraus die passende Strategie für ein zuverlässiges Datenmanagement abzuleiten, die optimale Daten garantiert, manuelle Prozessschritte reduziert und die Basis legt für die täglichen Anforderungen der finanzwirtschaftlichen Steuerung des Unternehmens.