- Anzeige -


Sie sind hier: Startseite » Markt » Tipps und Hinweise

Digitalisierung setzt Fachabteilungen unter Druck


Der große Health-Check: Wie fit ist Ihr Data Warehouse?
Nur wenn die Integrität der Daten im Data Warehouse sichergestellt ist, können Fachabteilungen aus den Analysen auch die richtigen Erkenntnisse ziehen

- Anzeigen -





Von Martin Clement, Senior Solution Architect Analytics & Data bei Axians IT Solutions

In vielen Unternehmen ist das Data Warehouse in die Jahre gekommen. Gleichzeitig wachsen die Anforderungen der Fachabteilungen. Mit IoT und der Digitalisierung kommen zudem neue Herausforderungen hinzu. Ist das Data Warehouse all dem noch gewachsen? Ein Health-Check kann den Durchblick bringen. Das Data Warehouse (DWH) bildet das Fundament für Business Intelligence und Data Analytics-Plattformen. Es dient als zentraler Speicher für alle unternehmensrelevanten Daten, bereitet sie auf, setzt sie in Relation und stellt sie für Auswertungen zur Verfügung. Fachabteilungen ziehen daraus Kennzahlen und erstellen Berichte. Die meisten Unternehmen haben ihr Data Warehouse schon viele Jahre in Betrieb.

Seit es damals aufgebaut wurde, hat sich jedoch einiges geändert. Durch die fortschreitende Digitalisierung ist das Datenvolumen enorm gewachsen. Gleichzeitig steigen die Anforderungen der Fachabteilungen. Sie benötigen ihre Auswertungen so schnell wie möglich und fordern immer wieder neue Kennzahlen ein, die erst einmal ins Data Warehouse integriert werden müssen. Oft ist das aufgrund der gewachsenen Komplexität schwierig. Erfüllt Ihr DWH noch die aktuellen Anforderungen und ist es für die Zukunft gewappnet? Die folgenden Fragen bringen es ans Licht.

1. Beschweren sich Fachabteilungen, weil kritische Berichte zu lange dauern?
Die Digitalisierung setzt Fachabteilungen unter Druck. Sie brauchen ihre Kennzahlen möglichst umgehend, um schnell auf veränderte Marktbedingungen und Kundenanforderungen reagieren zu können. Wer lange auf kritische Berichte warten muss, verliert wertvolle Zeit – und das kann sich auf den Geschäftserfolg auswirken. Performance-Probleme sind daher einer der häufigsten Gründe, warum Unternehmen ihr Data Warehouse auf den Prüfstand stellen. Die Ursachen dafür können zum Beispiel in der Hardware, der Datenbank oder der Datenmodellierung liegen.

2. Kommt es zu Abbrüchen beim Nachladen von Daten?
Damit Fachabteilungen immer auf die aktuellen Kennzahlen zugreifen können, muss das Data Warehouse kontinuierlich mit neuen Daten befüllt werden. Wenn es bei diesem Nachlade-Prozess zu Problemen kommt, stehen die Daten nicht zur Auswertung zur Verfügung. Fachabteilungen sehen dann nur die Informationen vom Vortag im System und können nicht richtig arbeiten. Solche Stabilitätsprobleme hängen oft mit Performance-Problemen zusammen. Wenn IT-Abteilungen nicht täglich kämpfen wollen, dass das Data Warehouse auch richtig befüllt wird, müssen sie die Ursachen beseitigen.

3. Weichen wichtige Kennzahlen in Ihren Reports von den Daten in Quellsystemen ab?
Nur wenn die Integrität der Daten im Data Warehouse sichergestellt ist, können Fachabteilungen aus den Analysen auch die richtigen Erkenntnisse ziehen. Kommt es zu Abweichungen von Daten im DWH und in den Quellsystemen, gibt es keine verlässliche Grundlage mehr für datenbasierte Entscheidungen. Solche Unstimmigkeiten können verschiedene Ursachen haben. Vielleicht läuft in der Berechnung der Kennzahl etwas schief. Das kann passieren, wenn Prozesse nicht richtig dokumentiert sind und nicht mehr nachvollziehbar ist, was eine Kennzahl eigentlich bedeuten soll und wie sie zustande kommt.

Im Finanzbuchhaltungssystem werden bei den einzelnen Buchungen zum Beispiel Skontoabzüge oder Boni vermerkt. Ist das im DWH nicht richtig abgebildet, stimmt die Gesamt-Umsatzkennzahl nicht mit der Aggregation der Einzelbuchungen im Quellsystem überein. Auch Stabilitätsprobleme können die Datenintegrität beeinträchtigen. Denn wenn das DWH keine aktuellen Daten zur Verfügung hat, stimmen die Berichte folglich auch nicht. Oft verschlechtert sich die Datenintegrität über die Jahre hinweg schleichend, weil das Data Warehouse durch ständige Anpassungen immer komplexer wird und sich Prozesse nicht mehr nachvollziehen lassen.

4. Können Sie die historische Entwicklung von Stammdaten nicht richtig darstellen?
Stammdaten wie Kundeninformationen, Produktdaten oder Organisationsstrukturen spielen eine wichtige Rolle für die Zuordnung von Daten. Man nennt sie daher auch Dimensionsdaten. Bei der Datenmodellierung müssen Unternehmen genau überlegen, welche Attribute sie für künftige Auswertungen brauchen – zum Beispiel das Alter, den Familienstand oder den Wohnort einer Person. Stammdaten ändern sich nur selten. Wenn sie es tun, muss das jedoch in der Datenmodellierung abgebildet werden.

Denn sonst stimmt die Datenhistorie nicht mehr. Ändert man zum Beispiel den Familienstand eines Kunden ohne Zeitbezug, fällt er auch für vergangenheitsbezogene Auswertungen in die Kategorie "verheiratet" und seine historischen Daten werden falsch zugeordnet. Deshalb ist es wichtig, dass Änderungen der Stammdaten stets nachvollziehbar bleiben und im Datenmodell berücksichtigt werden. Historisierungs-Probleme hängen immer mit der Datenmodellierung zusammen.

5. Dauert es lange, neue Anforderungen ins Data Warehouse zu integrieren?
Fachabteilungen brauchen heute Kennzahlen, an die vor einigen Jahren noch niemand gedacht hat. Denn der Markt und Kundenbedürfnisse ändern sich schnell. Laufend kommen neue Anforderungen hinzu, die im Data Warehouse umgesetzt werden müssen. Doch das ist einfacher gesagt als getan. Denn über die Jahre hinweg ist das DWH in den meisten Unternehmen kontinuierlich gewachsen und mit jeder Anpassung komplexer geworden. Umso schwieriger und zeitaufwändiger ist es, neue Anforderungen einzubinden.

Wie bei einem Haus, das man einmal gebaut hat, kann man nicht beliebige Wände einreißen, sondern muss mit der bestehenden Umgebung arbeiten. Manchmal ist es erforderlich, aufwändige Schleifen zu basteln. Das wiederum kann zu Performance-, Stabilitäts- und Integritätsproblemen führen. Denn wenn Kennzahlen mehrfach im System gespeichert sind, weil sie nicht wiederverwendet werden können, kommt es auch schnell einmal zu Unstimmigkeiten.

6. Ist es schwer, neue BI-Frontend-Tools auf Ihr Data Warehouse aufzusetzen?
Im Idealfall können Fachabteilungen ihre Berichte über entsprechende Frontend-Tools selbst per Mausklick anfertigen. Fehlen solche Tools, muss die IT-Abteilung die Berichte zur Verfügung stellen. Dadurch entsteht ein Engpass, und Fachabteilungen müssen unter Umständen länger auf ihre Auswertungen warten. BI-Frontend-Tools lassen sich jedoch nur auf das Data Warehouse aufsetzen, wenn klar dokumentiert ist, wo welche Kennzahl steht und welche Stammdaten verwendet werden sollen.

Ist das DWH über die Jahre hinweg durch ständige Anpassungen zu komplex und unübersichtlich geworden, bringt auch das beste Frontend nichts. Im Idealfall sollte das Data Warehouse so aufgebaut sein, dass es erweiterbar und sauber dokumentiert ist. Alle Daten, die man braucht, sollten immer an derselben Stelle zu finden sein. Dann lässt sich auch ein beliebiges Frontend-Tool einbinden oder bei Bedarf austauschen.

Was ist besser: Sanieren oder neu aufbauen?
Wenn Sie eine oder mehrere der Fragen mit "Ja" beantwortet haben, dann braucht Ihr Data Warehouse eine Frischekur. Ob es ausreicht, das bestehende System zu sanieren, hängt vom Einzelfall ab. Manche Probleme lassen sich lösen, indem man die Hardware austauscht oder die Datenmodellierung anpasst. Ist die Struktur jedoch sehr komplex geworden, kann es besser sein, das DHW gleich komplett neu aufzubauen, statt weiter an der alten Umgebung herumzudoktern. Auch strategische Überlegungen spielen eine wichtige Rolle. In welche Richtung möchte sich Ihr Unternehmen entwickeln? Wer IoT-Projekte durchführen will, muss zum Beispiel in der Lage sein, riesige Mengen an unstrukturierten Daten auszuwerten. Dafür ist das bestehende DWH vielleicht gar nicht geeignet. Ein spezialisierter Berater kann dabei helfen, den aktuellen und künftigen Bedarf zu ermitteln, das DWH daraufhin zu überprüfen und die richtige Entscheidung zu treffen. (Axians: ra)

eingetragen: 17.12.18
Newsletterlauf: 01.02.19

Axians: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Tipps und Hinweise

  • BSI: Auch für Cloud-Dienste Vorgaben erarbeitet

    Erstmals können Unternehmen Cloud Computing-Dienste und mobile Applikationen mit der bewährten IT-Grundschutz-Methode des Bundesamtes für Sicherheit in der Informationstechnik (BSI) absichern. Das BSI hat die entsprechenden Standards in der aktuellen Version des IT-Grundschutz-Kompendiums veröffentlicht. Umsetzen lassen sich die neuen Bausteine mit dem Update der IT-Sicherheitsdatenbank "SAVe". Sie wurde auf das komplette IT-Grundschutz-Kompendium 2019 hin aktualisiert. Die Sicherheitsdatenbank "SAVe 5.1.6" der Infodas GmbH enthält alle 95 Grundschutz-Bausteine des neuen Grundschutz-Kompendiums, darunter auch 14 völlig neue. Der Baustein "Mobile Anwendungen" zeigt etwa, wie Unternehmen Apps für iOS und Android sicher nutzen können. Auch für Cloud-Dienste hat das BSI Vorgaben erarbeitet, die eine sichere Nutzung ermöglichen. Die Überarbeitungen bestehender Bausteine sind ebenfalls in der neuen Version enthalten. Eine zügige (Re)-Zertifizierung nach modernisiertem IT-Grundschutz ist für Unternehmen ab sofort möglich.

  • In der Cloud und im heimischen Rechenzentrum

    Die heutige vernetzte Welt basiert auf der Datenzugänglichkeit von überall, zu jeder Zeit und auf jedem Gerät. Die Geschwindigkeit und Agilität, die mit Hosting-Diensten und -Anwendungen in der Cloud einhergeht, sind für den Erfolg zentral. Die damit verbundenen Vorteile haben Unternehmen in den letzten Jahren gezwungen, zumindest einige und in manchen Fälle sogar alle ihre Anwendungen oder ihre Infrastrukturen in die Cloud zu migrieren. Der Anteil in der Cloud gehosteter Workloads von Unternehmen ist Experten zufolge wohl bereits höher als 80 Prozent.

  • Spear-Phishing gegen DevOps-Mitarbeiter

    Immer häufiger erhalten Hacker Zugriff auf die Public-Cloud-Ressourcen von Unternehmen und Organisationen. Die Ursache ist oft ein nachlässiger Umgang mit den Zugangsschlüsseln berechtigter Nutzer. Eine wesentliche Quelle solcher Schlüssel stellen Entwickler-Plattformen wie GitHub dar, auf denen Mitglieder der DevOps-Teams oft auch vertrauliche Informationen ablegen, die sich in Skripten oder Konfigurationsdateien befinden.

  • Unterschied zwischen IoT und IIoT

    Das Internet der Dinge (Internet of Things, kurz IoT) bezeichnet die Möglichkeit, Geräte mit dem Internet zu verknüpfen. Mit dem Industrial Internet of Things (IIoT) weitet sich der Anwendungsbereich auf Produktionsprozesse in der Industrie aus. FP, Spezialist für sichere Kommunikation, erklärt, was das IIoT vom IoT unterscheidet und welchen Nutzen es für industrielle Unternehmen hat. Die Heiztemperatur, Lichtstimmung oder Musik im Zuhause bequem per App steuern, die Rollläden bei Sonnenuntergang herunterfahren und per Kamera das eigene Zuhause von unterwegs immer im Blick haben - das IoT erleichtert viele Dinge im Alltag. Die Geräte bekommen durch die Vernetzung eine eindeutige Identität, mit der sie im Internet repräsentiert und angesteuert werden können. Sie verarbeiten mittels Sensoren erfasste Daten in Echtzeit, führen automatisiert Funktionen aus und lassen sich aus der Ferne steuern.

  • Online-Zahlungsdienste: Wann ist "sicher" sicher?

    Online bezahlen war noch nie so einfach: Die EU-Richtlinie PSD2 ("Payment Services Directive 2") mischt bereits seit Anfang 2018 die Payment-Branche auf. Sie erlaubt Unternehmen, auf Daten von Kreditinstituten zuzugreifen und begünstigt so die Entstehung neuer Finanz- und Zahlungsdienste, zum Beispiel Zahlungsauslöse- und Kontoinformationsdienste. Ab 14. September 2019 sind Banken und Unternehmen EU-weit dazu verpflichtet, diese Dienste durch Zwei-Faktor-Authentifizierung und verschlüsselte Übertragung abzusichern - doch reicht das aus, um dem hohen Schutzbedarf sensibler Kundendaten zu genügen? IT-Sicherheitsexperte Dr. Hubert Jäger von der TÜV SÜD-Tochter Uniscon rät Banken, Finanzdienstleistern und Unternehmen zu zusätzlichen Maßnahmen.

  • Die fünf Merkmale erfolgreicher MSP

    MSP sind genauso unterschiedlich wie die Services, die sie anbieten. Aber wodurch setzen sich die erfolgreichsten vom Rest der Konkurrenz ab? Die Kaseya Benchmark Survey 2019 legt in diesem Jahr ein besonderes Augenmerk auf Service-Provider mit einem jährlichen Umsatzwachstum von über 20 Prozent. Mit welchen Services und Technologietrends behalten sie in einer sich ständig wandelnden MSP-Welt die Nase vorn? Kaseya ermittelte die fünf wichtigsten Schlüsselfaktoren erfolgreicher MSP.

  • DSGVO: Fünf Tipps für klare Sicht in der Cloud

    Die Nutzung von Cloud-Services ist für viele Unternehmen eine betriebliche Notwendigkeit geworden. Werden personenbezogene Daten in die Cloud ausgelagert, gelten bei der Auswahl eines Cloud-Anbieters jedoch besondere Vorgaben durch die DSGVO. Um die Compliance-Vorgaben bestmöglich zu erfüllen, sollten Unternehmen einige wesentliche Punkte beachten. Für Cloud-Services gilt das Modell der Shared Responsibility, das heißt, dass sowohl der Anbieter als auch das nutzende Unternehmen für die Datensicherheit verantwortlich sind. Während der Nutzer dafür zu sorgen hat, dass die Datennutzung in der Cloud sicher ist, hat der Cloud-Anbieter für die Sicherheit der bereitgestellten Infrastruktur zu garantieren. Werden für personenbezogene Daten Cloud-Services genutzt, verlangt die DSGVO von den Nutzern, sich zu vergewissern, dass der Cloud-Anbieter seiner Verantwortung in ausreichendem Maße nachkommt. Unternehmen müssen also sicherstellen, dass das Datenschutzniveau, dass sie ihren Kunden zusichern, auch jenseits ihrer eigenen Infrastruktur in der Cloud aufrechterhalten bleibt.

  • Keine Digitalisierung ohne 5G

    Das Thema 5G beherrscht derzeit beinahe täglich die Nachrichten, besonders seit dem Mobile World Congress (MWC) 2019, der Ende Februar in Barcelona stattfand. So haben Huawei und Samsung auf dem Kongress ihre ersten 5G-fähigen Handy-Modelle vorgestellt. Zudem wurde das Potenzial der neuen Technologie bei einem ersten Videoanruf und einer ersten telemedizinisch betreuten Operation live unter Beweis gestellt. Und auch die Weltpolitik beschäftigt 5G: Die USA und China streiten seit Monaten wirtschaftlich wie politisch mit immer härteren Bandagen über die Vorreiterrolle beim Netzausbau. Die deutsche Politik hadert dagegen noch mit sich und ihrer Rolle im internationalen Wettstreit. Und läuft so mehr denn je Gefahr, den technologischen Anschluss zu verpassen.

  • Grundlage für anstehende Pilotzertifizierungen

    Das Ziel des Forschungsprojektes "Auditor" ist, eine EU-weite nachhaltig anwendbare Datenschutzzertifizierung von Cloud-Diensten zu konzeptionieren, exemplarisch umzusetzen und zu erproben. Nun haben die Projektpartner einen wesentlichen Meilenstein erreicht: Mit der Neufassung des Kriterienkatalogs liegt ab jetzt ein Prüfstandard für die Datenschutz-Zertifizierung von Cloud-Diensten gemäß den Anforderungen der EU-Datenschutz Grundverordnung (DSGVO) vor. Ein Cloud-Anbieter muss in seiner Rolle als Auftragsverarbeiter Vorschriften erfüllen, um seine Datenverarbeitungsvorgänge zertifizieren zu lassen. Durch den "Auditor"-Kriterienkatalog werden die technikneutralen Vorschriften der DSGVO in prüffähige, normative Kriterien übersetzt.

  • Sechs Gründe für Cloud-basiertes Data Warehouse

    Ein Data Warehouse, das Daten aus verschiedenen Quellen zusammenfasst, um sie analysieren und darauf reagieren zu können, ist heute entscheidend für den Geschäftserfolg. Denn es verarbeitet schnell die enormen Datenmengen, die sich heute in Unternehmen ansammeln. Darauf basierend können Führungskräfte zuverlässige datenbasierte Entscheidungen treffen. Allerdings halten es fast zwei Drittel der kürzlich befragten Experten für "schwierig" oder "sehr schwierig", ihre Data Warehouse-Lösung zu verwalten. So entwickeln sich Cloud-basierte Data Warehouses aufgrund der steigenden Komplexität und Menge der Daten zur effizientesten Möglichkeit, diese Komplexität zu reduzieren und gleichzeitig die zunehmend geforderte Agilität, Sicherheit und Performance zu gewährleisten.