top of page

Teil 2 - Herausforderungen bei der Digitalisierung und Automatisierung von Unternehmensprozessen

Wir zeigen euch im zweiten Teil unserer Reihe, welche Aufwands- und Kostenfallen durch Datenredundanz entstehen können und welche Rolle Datenvirtualisierung bei der Lösung spielt.


„Das Kostengünstigste am Kopieren von Daten ist die Hardware, auf der die Daten gespeichert werden.“

Das Kopieren von Daten ist kostspielig, wobei der offensichtlichste aller Kostenfaktoren – nämlich die Infrastruktur zum Speichern der Daten – meist den geringsten Teil an direkten und indirekten Kosten ausmacht. Der weitaus größere Teil besteht in den Folgekosten, die durch die redundante Ablage von Unternehmensdaten entstehen. Diese Folgekosten wollen wir uns in diesem Beitrag einmal genauer anschauen.


Kosten der Data Governance


Data Governance Kosten entstehen, da Unternehmensdaten nicht einfach auf einen Datenspeicher abgelegt werden können, um dort auf weitere Verwendung zu warten. Die Vorgaben an die Daten und deren Aufbewahrung sind aus unternehmerischen und auch legalen Gründen sehr umfangreich. Es gilt bei der Ablage auf alle Compliance relevanten Regelungen (Vertraulichkeit der Daten, Datenschutz relevanter personenbezogene Daten, etc.) zu achten und diese mit entsprechenden Berechtigungskonzepten sowie deren Verwaltung und Prüfung sicherzustellen.


Auch die zu jedem Zeitpunkt sicherzustellende Integrität und Verfügbarkeit ist besonders bei unternehmenskritischen Daten zu beachten. Die Datensicherheit muss dabei nicht nur durch die genannte Berechtigungsprüfung, sondern auch durch alle gängigen und üblichen IT-Maßnahmen sichergestellt werden. Neben der Verschlüsselung des Datenaustauschs kann hierzu auch die Verschlüsselung der Daten selbst gehören.


Data Ownership


Ein weiteres großes Thema beim Kopieren der Daten ist die Frage nach dem „Dateneigentum“ (Data Ownership). Hierzu zählt nicht nur die Verantwortung für die Korrektheit der Daten, sondern auch die Interpretationshoheit und Konsistenz („one version of truth“) der Daten und Logik.


Durch das Kopieren der Daten muss sehr häufig auch dazugehörige Geschäftslogik kopiert und separat angewendet werden. Hierdurch entstehen mehrere Kopien einer vermeintlich identischen Logik. Wenn die Logik aber mehrfach und dezentral abgelegt ist, können sich die unterschiedlichen Stränge mit der Zeit unabhängig voneinander entwickeln und dann zu Inkonsistenzen bei der Kennzahlenermittlung und deren Interpretation führen.

Betriebskosten der Infrastruktur


Die Kosten für den Datenspeicher selbst haben wir bereits genannt. Diese sind jedoch nur ein Teil – und oftmals vermutlich der kleinste Teil – der Gesamtbetriebskosten der IT-Infrastruktur. Hinzu kommen Kosten für Anwendungsserver, auf denen die Daten gespeichert sind, Kosten für notwendige Netzwerkverbindungen und Firewalls sowie Kosten für die Überwachung dieser Infrastruktur.


“Die Anwendungen selbst verursachen initial und kontinuierlich Kosten.”

Auch die Anwendungen selbst verursachen initial und kontinuierlich Kosten. Gleich zu Beginn entstehen neben den Installationskosten gegebenenfalls auch Lizenzkosten für Betriebssystem, Anwendungsserver und / oder Datenbanksysteme, die je nach Lizenzmodell einmalig oder wiederkehrend fällig werden.


Weitere Kosten entstehen beim Einspielen notwendiger und möglicherweise sicherheitskritischer Updates auf den Systemen sowie bei der Überwachung aller Softwarekomponenten.


Pflege und Überwachung von Ladeprozessen


Ein erheblicher Teil der Kosten wird durch die Überwachung und Pflege von Ladeprozessen (ETLs : „Extrahieren, Transformieren, Laden“) verursacht, da diese kontinuierlich für die Gesamtdauer der Datenaufbewahrung sichergestellt werden müssen.


Ladeprozesse sind, je nach Anwendungsfall, teils komplexe, wiederkehrende Programmausführungen, die auf Basis vordefinierter Regeln und implementierter Logik die Daten verarbeiten und von einem zu einem anderen Ort kopieren. Diese Programmausführungen müssen überwacht werden, da, beispielsweise aufgrund von Änderungen im Daten-Ursprung oder -Ziel, Fehler bei der Ausführung auftreten können, die Korrekturen am Ladeprozess erforderlich machen.


“Keine Hardware hat das ewige Leben.”

Keine Hardware hat das ewige Leben. Dies gilt für Festplatten genauso wie für Netzwerkkarten, Router oder Speicher. Desaster-Recovery ist daher eine zwingend notwendige Vorbereitung für einen potenziellen Ausfall und wiederum mit Kosten für die Infrastruktur und den Betrieb verbunden.


Kosten durch die Unterlassung erforderlicher Governance- oder Infrastrukturaufgaben


Aufgrund des hohen Aufwands der genannten Aufgaben, werden diese nicht selten Opfer von Priorisierungs- und Kürzungsmaßnahmen. Die Unterlassung birgt aber teils umfangreiche Risiken, die zu enormen Kosten oder sogar zu nachhaltigen Reputationsschäden führen können.


Datenschutz und Datensicherheit besitzen nicht nur gesellschaftlich große Aufmerksamkeit, das Nichteinhalten der relevanten Vorgaben kann auch zu materiellen Strafen führen. Und wenn dann mal etwas schief geht, sind die Medien und sozialen Netzwerke meist sehr schnell und der nachhaltige Reputationsschaden ist oft nur noch schwer aufzuhalten.


Fehlende Desaster-Recovery


Aber nicht nur böswillige Angriffe von außen können aufgrund unsachgemäßer Datenablage zu Kosten führen. Auch Inkonsistenzen bei der Berichterstattung – egal ob sie ihren Ursprung in den Daten haben oder in der angewandten Logik – lösen Kosten aus.


Entweder bleiben sie unentdeckt und können dadurch zu Fehlentscheidungen führen oder sie werden erkannt und lösen im Unternehmen zeit- und kostenintensive Nachforschungen, Diskussionen und Korrekturen aus. Ähnliches gilt im Falle abgebrochener oder fehlerhafter Ladeprozesse, welche, wenn sie unbemerkt bleiben, zu fehlender Aktualität der Daten oder sogar zu falschen Daten führen können.


Wird auf angemessene Desaster-Recovery Fähigkeit der Systeme verzichtet, entstehen Aufwand und Kosten auf sehr unterschiedlichen Ebenen. Wenn Datenbestände nicht wiederhergestellt werden können, da sie auf nicht gespeicherten historischen Informationen basieren, zeitabhängige Logik oder manuelle Eingaben enthalten, entsteht ohne entsprechende Backup-Lösungen ein unumkehrbarer Schaden. Und selbst wenn die Daten mit Hilfe anderer Datenquellen wiederhergestellt werden können, ist dies in der Regel mit großem Aufwand und hohen Kosten verbunden.


Die Notwendigkeit von Softwareupdates


Softwareupdates für Betriebs-, Anwendungs- oder Datenbanksysteme haben in der Regel zwei Aufgaben. Die Aktualisierung und Fehlerbehebung der Systemfunktion und das Schließen sicherheitskritischer Probleme. Insbesondere im zweiten Fall kann eine Unterlassung zu nicht legitimiertem Zugriff auf die Daten führen.


Aber auch im ersten Fall kann die dauerhafte Unterlassung dazu führen, dass Software und Daten inkompatibel zu Folgeversionen der Software werden und damit ein zukünftiges Upgrade unmöglich wird. Ein solches Upgrade kann jedoch erforderlich werden, da Systemhersteller ihren Support für eine Softwareversion in der Regel zeitlich begrenzen.


Nach einem vordefinierten Zeitpunkt werden für diese Version keine Updates mehr zur Verfügung gestellt und etwaige kritische Sicherheitslücken können danach nicht mehr geschlossen werden. Auch zur Bewahrung der Kompatibilität zwischen Betriebs-, Anwendungs- und Datenbanksystem sollte auf eine regelmäßige Aktualisierung der Software geachtet werden.


Verringerung des Implementierungs- und Betriebsaufwands durch Datenvirtualisierung


Es ist ein vermeintlich kleiner, unscheinbarer Schritt, der die oben genannten Konsequenzen direkt und unumkehrbar auslöst: Die Daten werden von der Quelle in eine neue Umgebung kopiert. Allein die Tatsache, dass bei der Datenvirtualisierung die Daten in ihrer ursprünglichen Quelle verbleiben, vermeidet die genannten Kosten- und Aufwandstreiber.


  • Die Aufgaben der Data Governance verbleiben im Quellsystem und durch den mit Single Sign-On gesicherten Zugriff ist der authentifizierte und autorisierte Zugriff auf die Daten aller verbundenen Systeme sichergestellt.


  • Es gibt keine Ladeprozesse. Falls aufgrund einer Änderung im Quellsystem mal ein Fehler auftritt, wird dieser vom Anwender erkannt und kann auch von diesem korrigiert werden. Dadurch sind Fehler wegen ausbleibender Aktualisierung oder unbemerkten Unterbrechungen ausgeschlossen.


  • Da die Daten im Quellsystem verbleiben und dieses alle Anforderungen an konforme und sichere Aufbewahrung erfüllt, sind keine dieser aufwändigen Tätigkeiten an anderer Stelle erneut zu erledigen.


  • Es gibt keine Diskussionen über die Interpretationshoheit der Daten oder deren Berechnung, denn Geschäftslogik kann zentral, an einem Ort und für alle nutzbar abgelegt und ordnungsgemäß verwaltet werden.


Diese Aspekte bleiben gültig, solange die Kriterien des virtuellen Datenraums erhalten bleiben:


  • Keine Daten-Persistenz im virtuellen Raum, auch wenn diese ‚nur‘ zur Verbesserung der Performance eingeführt wird.


  • Durchgängige und ausschließliche Verwendung von Single Sign-On zur Übergabe von Benutzeridentitäten und keine Umgehung durch technische User.


Dadurch lassen sich mit Hilfe von Datenvirtualisierung Aufwand und Kosten deutlich reduzieren und ein sicherer, zuverlässiger sowie konsistenter Umgang mit den eigenen Unternehmensdaten wird endlich möglich.

Comments


Commenting has been turned off.
bottom of page