top of page

Teil 3 - Herausforderungen bei der Digitalisierung und Automatisierung von Unternehmensprozessen

Im dritten Teil unserer Reihe geht es um Zeitdruck und mögliche Kapazitätsengpässe, die bei der Umsetzung neuer Anforderungen entstehen können. Im Anschluss erklären wir, wie Datenvirtualisierung zur Lösung dieser Probleme beitragen kann.


„Unternehmen schieben eine immer größer werdende Bugwelle an Anforderungen vor sich her.“

Unternehmen müssen heute sehr schnell auf regulatorische Änderungen, Änderungen im Markt oder andere Anforderungen reagieren können. Gleichzeitig werden Systeme und Prozesse aufgrund der wachsenden Anforderungen immer komplexer. Dieses Dilemma führt insbesondere in der IT immer häufiger zur Zerreißprobe.


Steigende Anforderungen und wachsende Komplexität


Steigende oder fallende Zinsen, Unternehmenszukäufe oder -verkäufe, Krisen, Sanktionen oder ein veränderter Rechnungslegungsstandard, Unternehmen schieben eine immer größer werdende Bugwelle an Anforderungen und notwendigen Veränderungen vor sich her.

Während sich die durch die Änderungen bedingten fachlichen Herausforderungen meist auf unterschiedliche Bereiche verteilen (Accounting, Controlling, Fertigung, etc.), führen sie alle zu neuen oder veränderten Anforderungen für die IT.


Die Unternehmens - IT ist gezwungen die Themen zu priorisieren, mit dem Ergebnis, dass zahlreiche Anforderungen gar nicht oder nicht kurzfristig umgesetzt werden können. Der Endanwender bleibt in diesen Fällen mit dem Problem und dessen Lösung allein verantwortlich und behilft sich mit den ihm zur Verfügung stehenden Mitteln. In den meisten Fällen resultiert dies in sich wiederholenden, zeitintensiven und ggf. fehleranfälligen manuellen Prozessen.


„Eine Überprüfung mehrerer Szenarien ist meist ebenso unmöglich wie Ad-hoc Abfragen.“

Eine direkte Konsequenz daraus ist, dass der Mitarbeiter den größten Teil seiner Zeit für die Datenbeschaffung und -aufbereitung verwendet. Für eine qualitative Auswertung, die Interpretation der Daten und die Ableitung von Handlungsempfehlungen bleibt oft nicht genügend Zeit.


Aufgrund des großen zeitlichen Aufwands für jeden einzelnen Durchlauf, können Handlungsoptionen meist nicht evaluiert werden. Der Anwender ist dazu gezwungen, grundlegende Hypothesen im Vorfeld zu definieren und anzuwenden. Eine Überprüfung mehrerer Szenarien ist meist ebenso unmöglich wie Ad-hoc Abfragen außerhalb des regulären Reporting-Zyklus, was das frühzeitige Erkennen von Entwicklungen erschwert.

Fehlende Aufgabentrennung bei der Entwicklung


Die ordnungsgemäße Aufbewahrung und die Verwaltung von Unternehmensdaten bestehen aus einer Vielzahl teils sehr komplexer Aufgaben, die technisches Verständnis und Erfahrung erfordern. Aus diesem und weiteren guten Gründen fühlt sich die Unternehmens - IT nicht nur verantwortlich dafür, diese Prozesse zu kontrollieren, sondern auch für den Erhalt der Qualität und Zuverlässigkeit der Daten zu sorgen.


Bei der Interpretation der Zahlen und der Definition der Geschäftslogik liegt die Verantwortung wiederum bei den Fach- und Geschäftsbereichen, die deren Bedeutung verstehen und interpretieren können. 


Im klassischen Data Warehouse können diese beiden Aufgaben nicht voneinander getrennt existieren. Das führt in der Regel zu großen Projekten, in denen beide Parteien gemeinsam zunächst Anforderungen definieren und später die Implementierung dieser im ständigen gemeinsamen Austausch vornehmen.


Komplexität von Geschäftslogik


In einigen Fachbereichen sind Fachanforderungen, Reporting- und Geschäftslogik so speziell und komplex, dass sie von den Fachbereichen in geeigneten Programmiersprachen programmiert werden müssen. In der klassischen Modellierung werden diese Berechnungen dann entweder von der IT als Bestandteil des Datenflusses integriert oder sie werden vom Fachbereich direkt in die Analysen aufgenommen.


„Sollten mehrere Versionen der Analysen existieren, besteht gleichzeitig das Risiko inkonsistenter Geschäftslogik.“

Beide Vorgehen bieten gravierende Nachteile. Im ersten Fall sind Änderungen, auch wenn sie vom Fachbereich definiert werden, wiederum nur durch die IT umsetzbar.


Im zweiten Fall liegt die Logik in statischer Form dezentral in verschiedenen Analysen, beispielsweise in verschiedenen Excel-Dateien, Skripten oder Dashboards. Änderungen sind dort oft nur schwer nachvollziehbar und nur umkehrbar, sofern eine alte Version der gesamten Analyse aufbewahrt wurde. 


Sollten mehrere Versionen der Analysen existieren, besteht gleichzeitig das Risiko inkonsistenter Geschäftslogik. 


Optimale Lastverteilung durch Datenvirtualisierung


Datenvirtualisierung ermöglicht es, die Datenablage von der Datennutzung zu trennen. Während die IT dafür verantwortlich ist eine konsistente und robuste Datenbasis zu schaffen, kann der Endanwender die Daten entsprechend seiner Berechtigungen nutzen, transformieren und mit anderen Daten kombinieren. Zusätzlich kann er Geschäftslogik darauf anwenden und das Ergebnis in seine Anwendungsfälle integrieren.


„Diese Aufgabentrennung reduziert den Druck auf die Unternehmens - IT und vergrößert gleichzeitig die Implementierungsgeschwindigkeit fachlicher Anforderungen.“

Das ermöglicht einen vollautomatisierten Datenbezug und erlaubt es dem Endanwender, seine eigenen Analysen zu erweitern und mit Daten anderer Quellen zu ergänzen.


Diese Aufgabentrennung reduziert den Druck auf die Unternehmens - IT und vergrößert gleichzeitig die Implementierungsgeschwindigkeit fachlicher Anforderungen. Gleichzeitig werden inhaltliche und technische Vorgaben an Qualität und Zuverlässigkeit nicht eingeschränkt.

 

Zentralisierung und Auditierbarkeit von Geschäftslogik


Datenvirtualisierung erlaubt es, Logik zentral vom Fachbereich pflegen und bereitstellen zu lassen, wodurch sie im gesamten Unternehmen konsistent angewendet werden kann.


Dabei gibt es die Möglichkeit, die Logik in Software-Repositories abzulegen. Diese stellen die professionelle, voll auditierbare Aufbewahrung und Verwaltung der Geschäftslogik sicher, indem die Änderungshistorie bewahrt wird und dabei alle Details zu Autor, Zeitpunkt und Umfang der Änderungen gespeichert werden.


Dadurch existiert nicht nur ein vollständiger Überblick über alle Änderungen, sondern auch die Möglichkeit, sie jederzeit wieder rückgängig zu machen oder historische Stände wiederherzustellen.


Das Einbinden der Logik findet im virtuellen Datenraum über die Verknüpfung der Daten mit der entsprechenden Logik statt. Einzelne Logikbausteine können so nicht nur wiederverwendet werden, sondern mit Daten, virtuellen Modellen und weiteren Logikbausteinen zu neuen virtuellen Modellen orchestriert werden.


Mit diesem Ansatz lassen sich Zeitdruck und Komplexität deutlich reduzieren, IT- und Fachbereiche können ihre Expertise optimal nutzen und somit Kapazitätsengpässe dauerhaft lösen.

Kommentare


Die Kommentarfunktion wurde abgeschaltet.
bottom of page