Sie sind hier: Startseite » Markt » Tipps und Hinweise

Digitalisierung setzt Fachabteilungen unter Druck


Der große Health-Check: Wie fit ist Ihr Data Warehouse?
Nur wenn die Integrität der Daten im Data Warehouse sichergestellt ist, können Fachabteilungen aus den Analysen auch die richtigen Erkenntnisse ziehen


Von Martin Clement, Senior Solution Architect Analytics & Data bei Axians IT Solutions

In vielen Unternehmen ist das Data Warehouse in die Jahre gekommen. Gleichzeitig wachsen die Anforderungen der Fachabteilungen. Mit IoT und der Digitalisierung kommen zudem neue Herausforderungen hinzu. Ist das Data Warehouse all dem noch gewachsen? Ein Health-Check kann den Durchblick bringen. Das Data Warehouse (DWH) bildet das Fundament für Business Intelligence und Data Analytics-Plattformen. Es dient als zentraler Speicher für alle unternehmensrelevanten Daten, bereitet sie auf, setzt sie in Relation und stellt sie für Auswertungen zur Verfügung. Fachabteilungen ziehen daraus Kennzahlen und erstellen Berichte. Die meisten Unternehmen haben ihr Data Warehouse schon viele Jahre in Betrieb.

Seit es damals aufgebaut wurde, hat sich jedoch einiges geändert. Durch die fortschreitende Digitalisierung ist das Datenvolumen enorm gewachsen. Gleichzeitig steigen die Anforderungen der Fachabteilungen. Sie benötigen ihre Auswertungen so schnell wie möglich und fordern immer wieder neue Kennzahlen ein, die erst einmal ins Data Warehouse integriert werden müssen. Oft ist das aufgrund der gewachsenen Komplexität schwierig. Erfüllt Ihr DWH noch die aktuellen Anforderungen und ist es für die Zukunft gewappnet? Die folgenden Fragen bringen es ans Licht.

1. Beschweren sich Fachabteilungen, weil kritische Berichte zu lange dauern?
Die Digitalisierung setzt Fachabteilungen unter Druck. Sie brauchen ihre Kennzahlen möglichst umgehend, um schnell auf veränderte Marktbedingungen und Kundenanforderungen reagieren zu können. Wer lange auf kritische Berichte warten muss, verliert wertvolle Zeit – und das kann sich auf den Geschäftserfolg auswirken. Performance-Probleme sind daher einer der häufigsten Gründe, warum Unternehmen ihr Data Warehouse auf den Prüfstand stellen. Die Ursachen dafür können zum Beispiel in der Hardware, der Datenbank oder der Datenmodellierung liegen.

2. Kommt es zu Abbrüchen beim Nachladen von Daten?
Damit Fachabteilungen immer auf die aktuellen Kennzahlen zugreifen können, muss das Data Warehouse kontinuierlich mit neuen Daten befüllt werden. Wenn es bei diesem Nachlade-Prozess zu Problemen kommt, stehen die Daten nicht zur Auswertung zur Verfügung. Fachabteilungen sehen dann nur die Informationen vom Vortag im System und können nicht richtig arbeiten. Solche Stabilitätsprobleme hängen oft mit Performance-Problemen zusammen. Wenn IT-Abteilungen nicht täglich kämpfen wollen, dass das Data Warehouse auch richtig befüllt wird, müssen sie die Ursachen beseitigen.

3. Weichen wichtige Kennzahlen in Ihren Reports von den Daten in Quellsystemen ab?
Nur wenn die Integrität der Daten im Data Warehouse sichergestellt ist, können Fachabteilungen aus den Analysen auch die richtigen Erkenntnisse ziehen. Kommt es zu Abweichungen von Daten im DWH und in den Quellsystemen, gibt es keine verlässliche Grundlage mehr für datenbasierte Entscheidungen. Solche Unstimmigkeiten können verschiedene Ursachen haben. Vielleicht läuft in der Berechnung der Kennzahl etwas schief. Das kann passieren, wenn Prozesse nicht richtig dokumentiert sind und nicht mehr nachvollziehbar ist, was eine Kennzahl eigentlich bedeuten soll und wie sie zustande kommt.

Im Finanzbuchhaltungssystem werden bei den einzelnen Buchungen zum Beispiel Skontoabzüge oder Boni vermerkt. Ist das im DWH nicht richtig abgebildet, stimmt die Gesamt-Umsatzkennzahl nicht mit der Aggregation der Einzelbuchungen im Quellsystem überein. Auch Stabilitätsprobleme können die Datenintegrität beeinträchtigen. Denn wenn das DWH keine aktuellen Daten zur Verfügung hat, stimmen die Berichte folglich auch nicht. Oft verschlechtert sich die Datenintegrität über die Jahre hinweg schleichend, weil das Data Warehouse durch ständige Anpassungen immer komplexer wird und sich Prozesse nicht mehr nachvollziehen lassen.

4. Können Sie die historische Entwicklung von Stammdaten nicht richtig darstellen?
Stammdaten wie Kundeninformationen, Produktdaten oder Organisationsstrukturen spielen eine wichtige Rolle für die Zuordnung von Daten. Man nennt sie daher auch Dimensionsdaten. Bei der Datenmodellierung müssen Unternehmen genau überlegen, welche Attribute sie für künftige Auswertungen brauchen – zum Beispiel das Alter, den Familienstand oder den Wohnort einer Person. Stammdaten ändern sich nur selten. Wenn sie es tun, muss das jedoch in der Datenmodellierung abgebildet werden.

Denn sonst stimmt die Datenhistorie nicht mehr. Ändert man zum Beispiel den Familienstand eines Kunden ohne Zeitbezug, fällt er auch für vergangenheitsbezogene Auswertungen in die Kategorie "verheiratet" und seine historischen Daten werden falsch zugeordnet. Deshalb ist es wichtig, dass Änderungen der Stammdaten stets nachvollziehbar bleiben und im Datenmodell berücksichtigt werden. Historisierungs-Probleme hängen immer mit der Datenmodellierung zusammen.

5. Dauert es lange, neue Anforderungen ins Data Warehouse zu integrieren?
Fachabteilungen brauchen heute Kennzahlen, an die vor einigen Jahren noch niemand gedacht hat. Denn der Markt und Kundenbedürfnisse ändern sich schnell. Laufend kommen neue Anforderungen hinzu, die im Data Warehouse umgesetzt werden müssen. Doch das ist einfacher gesagt als getan. Denn über die Jahre hinweg ist das DWH in den meisten Unternehmen kontinuierlich gewachsen und mit jeder Anpassung komplexer geworden. Umso schwieriger und zeitaufwändiger ist es, neue Anforderungen einzubinden.

Wie bei einem Haus, das man einmal gebaut hat, kann man nicht beliebige Wände einreißen, sondern muss mit der bestehenden Umgebung arbeiten. Manchmal ist es erforderlich, aufwändige Schleifen zu basteln. Das wiederum kann zu Performance-, Stabilitäts- und Integritätsproblemen führen. Denn wenn Kennzahlen mehrfach im System gespeichert sind, weil sie nicht wiederverwendet werden können, kommt es auch schnell einmal zu Unstimmigkeiten.

6. Ist es schwer, neue BI-Frontend-Tools auf Ihr Data Warehouse aufzusetzen?
Im Idealfall können Fachabteilungen ihre Berichte über entsprechende Frontend-Tools selbst per Mausklick anfertigen. Fehlen solche Tools, muss die IT-Abteilung die Berichte zur Verfügung stellen. Dadurch entsteht ein Engpass, und Fachabteilungen müssen unter Umständen länger auf ihre Auswertungen warten. BI-Frontend-Tools lassen sich jedoch nur auf das Data Warehouse aufsetzen, wenn klar dokumentiert ist, wo welche Kennzahl steht und welche Stammdaten verwendet werden sollen.

Ist das DWH über die Jahre hinweg durch ständige Anpassungen zu komplex und unübersichtlich geworden, bringt auch das beste Frontend nichts. Im Idealfall sollte das Data Warehouse so aufgebaut sein, dass es erweiterbar und sauber dokumentiert ist. Alle Daten, die man braucht, sollten immer an derselben Stelle zu finden sein. Dann lässt sich auch ein beliebiges Frontend-Tool einbinden oder bei Bedarf austauschen.

Was ist besser: Sanieren oder neu aufbauen?
Wenn Sie eine oder mehrere der Fragen mit "Ja" beantwortet haben, dann braucht Ihr Data Warehouse eine Frischekur. Ob es ausreicht, das bestehende System zu sanieren, hängt vom Einzelfall ab. Manche Probleme lassen sich lösen, indem man die Hardware austauscht oder die Datenmodellierung anpasst. Ist die Struktur jedoch sehr komplex geworden, kann es besser sein, das DHW gleich komplett neu aufzubauen, statt weiter an der alten Umgebung herumzudoktern. Auch strategische Überlegungen spielen eine wichtige Rolle. In welche Richtung möchte sich Ihr Unternehmen entwickeln? Wer IoT-Projekte durchführen will, muss zum Beispiel in der Lage sein, riesige Mengen an unstrukturierten Daten auszuwerten. Dafür ist das bestehende DWH vielleicht gar nicht geeignet. Ein spezialisierter Berater kann dabei helfen, den aktuellen und künftigen Bedarf zu ermitteln, das DWH daraufhin zu überprüfen und die richtige Entscheidung zu treffen. (Axians: ra)

eingetragen: 17.12.18
Newsletterlauf: 01.02.19

Axians: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Tipps und Hinweise

  • Optimierung von Java-Workloads in der Cloud

    Cloud-Infrastrukturen versprechen Skalierbarkeit, Effizienz und Kostenvorteile. Doch um Engpässe zu vermeiden, überprovisionieren viele Unternehmen ihre Cloud-Kapazitäten - und bezahlen so oftmals für Ressourcen, die sie gar nicht nutzen. Wie lässt sich das ändern? Ein zentraler Hebel ist die Optimierung von Java-Workloads in der Cloud. Cloud-Infrastrukturen bringen viele Vorteile, aber auch neue Komplexität und oft unerwartet hohe Kosten mit sich. Bei vielen Unternehmen nehmen Java-Umgebungen und -Anwendungen große Volumina in gebuchten Cloud-Kapazitäten ein, denn Java gehört noch immer zu den beliebtesten Programmiersprachen: Laut dem aktuellen State of Java Survey and Report 2025 von Azul geben 68 Prozent der Befragten an, dass über 50 Prozent ihrer Anwendungen mit Java entwickelt wurden oder auf einer JVM (Java Virtual Machine) laufen.

  • Wer Cloud sagt, muss Datensouveränität denken

    Die Cloud hat sich längst zu einem neuen IT-Standard entwickelt. Ihr Einsatz bringt allerdings neue Herausforderungen mit sich - insbesondere im Hinblick auf geopolitische Risiken und die Gefahr einseitiger Abhängigkeiten. Klar ist: Unternehmen, Behörden und Betreiber kritischer Infrastrukturen benötigen eine kompromisslose Datensouveränität. Materna Virtual Solution zeigt, welche zentralen Komponenten dabei entscheidend sind.

  • Fünf Mythen über Managed Services

    Managed Services sind ein Erfolgsmodell. Trotzdem existieren nach wie vor einige Vorbehalte gegenüber externen IT-Services. Die IT-Dienstleisterin CGI beschreibt die fünf hartnäckigsten Mythen und erklärt, warum diese längst überholt sind.

  • KI-Herausforderung: Mehr Daten, mehr Risiko

    Künstliche Intelligenz (KI) revolutioniert weiterhin die Geschäftswelt und hilft Unternehmen, Aufgaben zu automatisieren, Erkenntnisse zu gewinnen und Innovationen in großem Umfang voranzutreiben. Doch es bleiben Fragen offen, vor allem wenn es um die Art und Weise geht, wie KI-Lösungen Daten sicher verarbeiten und bewegen. Einem Bericht von McKinsey zufolge gehören Ungenauigkeiten in der KI sowie KI-Cybersecurity-Risiken zu den größten Sorgen von Mitarbeitern und Führungskräften.

  • Sichere Daten in der Sovereign Cloud

    Technologie steht im Mittelpunkt strategischer Ambitionen auf der ganzen Welt, aber ihr Erfolg hängt von mehr als nur ihren Fähigkeiten ab. Damit Dienste effektiv funktionieren, braucht es eine Vertrauensbasis, die den Erfolg dieser Technologie untermauert und eine verantwortungsvolle Speicherung der Daten, Anwendungen und Dienste gewährleistet.

  • Integration von Cloud-Infrastrukturen

    Cloud-Technologien werden zum Schlüsselfaktor für Wachstum und verbesserte Skalierbarkeit über das Kerngeschäft hinaus - auch bei Telekommunikationsanbietern (Telcos). Auch hier ist der Wandel zur Nutzung von Produkten und Dienstleistungen "On-Demand" im vollen Gange, sodass Telcos ihre Geschäftsmodelle weiterentwickeln und zunehmend als Managed-Service-Provider (MSPs) und Cloud-Service-Provider (CSPs) auftreten.

  • Acht Einsatzszenarien für Industrial AI

    Artificial Intelligence (AI) entwickelt sich zunehmend zur Schlüsselressource für die Wettbewerbsfähigkeit der deutschen Industrie. Doch wie weit ist die Branche wirklich? Laut einer aktuellen Bitkom-Befragung setzen bereits 42?Prozent der Industrieunternehmen des verarbeitenden Gewerbes in Deutschland AI in ihrer Produktion ein - ein weiteres Drittel (35?Prozent) plant entsprechende Projekte.

  • Ausfallkosten nur Spitze des Eisbergs

    Ungeplante Ausfälle in Rechenzentren sind seltener geworden, doch wenn sie eintreten, können sie verheerende Folgen haben. Laut der Uptime Institute Studie 2023 meldeten 55 Prozent der Betreiber in den vorangegangenen drei Jahren mindestens einen Ausfall - jeder zehnte davon war schwerwiegend oder kritisch. Zu den Ursachen gehören unter anderem Wartungsmängel, die sich mit einer strukturierten Instandhaltungsstrategie vermeiden lassen.

  • GenAI mächtig, aber nicht immer notwendig

    Jetzt auf den Hype rund um KI-Agenten aufzuspringen, klingt gerade in Zeiten des Fachkräftemangels für Unternehmen verlockend. Doch nicht alles, was glänzt, ist Gold. Viele Unternehmen investieren gerade in smarte Assistenten, Chatbots und Voicebots - allerdings scheitern einige dieser Projekte, ehe sie richtig begonnen haben: Schlecht umgesetzte KI-Agenten sorgen eher für Frust als für Effizienz, sowohl bei Kunden als auch bei den eigenen Mitarbeitern. Dabei werden immer wieder die gleichen Fehler gemacht. Besonders die folgenden drei sind leicht zu vermeiden.

  • Konsequent auf die Cloud setzen

    In der sich stetig wandelnden digitalen Welt reicht es nicht aus, mit den neuesten Technologien nur Schritt zu halten - Unternehmen müssen proaktiv handeln, um Innovationsführer zu werden. Entsprechend der neuen Studie "Driving Business Outcomes through Cost-Optimised Innovation" von SoftwareOne können Unternehmen, die gezielt ihre IT-Kosten optimieren, deutlich besser Innovationen vorantreiben und ihre Rentabilität sowie Markteinführungsgeschwindigkeit verbessern.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen