- Anzeige -


Sie sind hier: Startseite » Markt » Tipps und Hinweise

Digitalisierung setzt Fachabteilungen unter Druck


Der große Health-Check: Wie fit ist Ihr Data Warehouse?
Nur wenn die Integrität der Daten im Data Warehouse sichergestellt ist, können Fachabteilungen aus den Analysen auch die richtigen Erkenntnisse ziehen

- Anzeigen -





Von Martin Clement, Senior Solution Architect Analytics & Data bei Axians IT Solutions

In vielen Unternehmen ist das Data Warehouse in die Jahre gekommen. Gleichzeitig wachsen die Anforderungen der Fachabteilungen. Mit IoT und der Digitalisierung kommen zudem neue Herausforderungen hinzu. Ist das Data Warehouse all dem noch gewachsen? Ein Health-Check kann den Durchblick bringen. Das Data Warehouse (DWH) bildet das Fundament für Business Intelligence und Data Analytics-Plattformen. Es dient als zentraler Speicher für alle unternehmensrelevanten Daten, bereitet sie auf, setzt sie in Relation und stellt sie für Auswertungen zur Verfügung. Fachabteilungen ziehen daraus Kennzahlen und erstellen Berichte. Die meisten Unternehmen haben ihr Data Warehouse schon viele Jahre in Betrieb.

Seit es damals aufgebaut wurde, hat sich jedoch einiges geändert. Durch die fortschreitende Digitalisierung ist das Datenvolumen enorm gewachsen. Gleichzeitig steigen die Anforderungen der Fachabteilungen. Sie benötigen ihre Auswertungen so schnell wie möglich und fordern immer wieder neue Kennzahlen ein, die erst einmal ins Data Warehouse integriert werden müssen. Oft ist das aufgrund der gewachsenen Komplexität schwierig. Erfüllt Ihr DWH noch die aktuellen Anforderungen und ist es für die Zukunft gewappnet? Die folgenden Fragen bringen es ans Licht.

1. Beschweren sich Fachabteilungen, weil kritische Berichte zu lange dauern?
Die Digitalisierung setzt Fachabteilungen unter Druck. Sie brauchen ihre Kennzahlen möglichst umgehend, um schnell auf veränderte Marktbedingungen und Kundenanforderungen reagieren zu können. Wer lange auf kritische Berichte warten muss, verliert wertvolle Zeit – und das kann sich auf den Geschäftserfolg auswirken. Performance-Probleme sind daher einer der häufigsten Gründe, warum Unternehmen ihr Data Warehouse auf den Prüfstand stellen. Die Ursachen dafür können zum Beispiel in der Hardware, der Datenbank oder der Datenmodellierung liegen.

2. Kommt es zu Abbrüchen beim Nachladen von Daten?
Damit Fachabteilungen immer auf die aktuellen Kennzahlen zugreifen können, muss das Data Warehouse kontinuierlich mit neuen Daten befüllt werden. Wenn es bei diesem Nachlade-Prozess zu Problemen kommt, stehen die Daten nicht zur Auswertung zur Verfügung. Fachabteilungen sehen dann nur die Informationen vom Vortag im System und können nicht richtig arbeiten. Solche Stabilitätsprobleme hängen oft mit Performance-Problemen zusammen. Wenn IT-Abteilungen nicht täglich kämpfen wollen, dass das Data Warehouse auch richtig befüllt wird, müssen sie die Ursachen beseitigen.

3. Weichen wichtige Kennzahlen in Ihren Reports von den Daten in Quellsystemen ab?
Nur wenn die Integrität der Daten im Data Warehouse sichergestellt ist, können Fachabteilungen aus den Analysen auch die richtigen Erkenntnisse ziehen. Kommt es zu Abweichungen von Daten im DWH und in den Quellsystemen, gibt es keine verlässliche Grundlage mehr für datenbasierte Entscheidungen. Solche Unstimmigkeiten können verschiedene Ursachen haben. Vielleicht läuft in der Berechnung der Kennzahl etwas schief. Das kann passieren, wenn Prozesse nicht richtig dokumentiert sind und nicht mehr nachvollziehbar ist, was eine Kennzahl eigentlich bedeuten soll und wie sie zustande kommt.

Im Finanzbuchhaltungssystem werden bei den einzelnen Buchungen zum Beispiel Skontoabzüge oder Boni vermerkt. Ist das im DWH nicht richtig abgebildet, stimmt die Gesamt-Umsatzkennzahl nicht mit der Aggregation der Einzelbuchungen im Quellsystem überein. Auch Stabilitätsprobleme können die Datenintegrität beeinträchtigen. Denn wenn das DWH keine aktuellen Daten zur Verfügung hat, stimmen die Berichte folglich auch nicht. Oft verschlechtert sich die Datenintegrität über die Jahre hinweg schleichend, weil das Data Warehouse durch ständige Anpassungen immer komplexer wird und sich Prozesse nicht mehr nachvollziehen lassen.

4. Können Sie die historische Entwicklung von Stammdaten nicht richtig darstellen?
Stammdaten wie Kundeninformationen, Produktdaten oder Organisationsstrukturen spielen eine wichtige Rolle für die Zuordnung von Daten. Man nennt sie daher auch Dimensionsdaten. Bei der Datenmodellierung müssen Unternehmen genau überlegen, welche Attribute sie für künftige Auswertungen brauchen – zum Beispiel das Alter, den Familienstand oder den Wohnort einer Person. Stammdaten ändern sich nur selten. Wenn sie es tun, muss das jedoch in der Datenmodellierung abgebildet werden.

Denn sonst stimmt die Datenhistorie nicht mehr. Ändert man zum Beispiel den Familienstand eines Kunden ohne Zeitbezug, fällt er auch für vergangenheitsbezogene Auswertungen in die Kategorie "verheiratet" und seine historischen Daten werden falsch zugeordnet. Deshalb ist es wichtig, dass Änderungen der Stammdaten stets nachvollziehbar bleiben und im Datenmodell berücksichtigt werden. Historisierungs-Probleme hängen immer mit der Datenmodellierung zusammen.

5. Dauert es lange, neue Anforderungen ins Data Warehouse zu integrieren?
Fachabteilungen brauchen heute Kennzahlen, an die vor einigen Jahren noch niemand gedacht hat. Denn der Markt und Kundenbedürfnisse ändern sich schnell. Laufend kommen neue Anforderungen hinzu, die im Data Warehouse umgesetzt werden müssen. Doch das ist einfacher gesagt als getan. Denn über die Jahre hinweg ist das DWH in den meisten Unternehmen kontinuierlich gewachsen und mit jeder Anpassung komplexer geworden. Umso schwieriger und zeitaufwändiger ist es, neue Anforderungen einzubinden.

Wie bei einem Haus, das man einmal gebaut hat, kann man nicht beliebige Wände einreißen, sondern muss mit der bestehenden Umgebung arbeiten. Manchmal ist es erforderlich, aufwändige Schleifen zu basteln. Das wiederum kann zu Performance-, Stabilitäts- und Integritätsproblemen führen. Denn wenn Kennzahlen mehrfach im System gespeichert sind, weil sie nicht wiederverwendet werden können, kommt es auch schnell einmal zu Unstimmigkeiten.

6. Ist es schwer, neue BI-Frontend-Tools auf Ihr Data Warehouse aufzusetzen?
Im Idealfall können Fachabteilungen ihre Berichte über entsprechende Frontend-Tools selbst per Mausklick anfertigen. Fehlen solche Tools, muss die IT-Abteilung die Berichte zur Verfügung stellen. Dadurch entsteht ein Engpass, und Fachabteilungen müssen unter Umständen länger auf ihre Auswertungen warten. BI-Frontend-Tools lassen sich jedoch nur auf das Data Warehouse aufsetzen, wenn klar dokumentiert ist, wo welche Kennzahl steht und welche Stammdaten verwendet werden sollen.

Ist das DWH über die Jahre hinweg durch ständige Anpassungen zu komplex und unübersichtlich geworden, bringt auch das beste Frontend nichts. Im Idealfall sollte das Data Warehouse so aufgebaut sein, dass es erweiterbar und sauber dokumentiert ist. Alle Daten, die man braucht, sollten immer an derselben Stelle zu finden sein. Dann lässt sich auch ein beliebiges Frontend-Tool einbinden oder bei Bedarf austauschen.

Was ist besser: Sanieren oder neu aufbauen?
Wenn Sie eine oder mehrere der Fragen mit "Ja" beantwortet haben, dann braucht Ihr Data Warehouse eine Frischekur. Ob es ausreicht, das bestehende System zu sanieren, hängt vom Einzelfall ab. Manche Probleme lassen sich lösen, indem man die Hardware austauscht oder die Datenmodellierung anpasst. Ist die Struktur jedoch sehr komplex geworden, kann es besser sein, das DHW gleich komplett neu aufzubauen, statt weiter an der alten Umgebung herumzudoktern. Auch strategische Überlegungen spielen eine wichtige Rolle. In welche Richtung möchte sich Ihr Unternehmen entwickeln? Wer IoT-Projekte durchführen will, muss zum Beispiel in der Lage sein, riesige Mengen an unstrukturierten Daten auszuwerten. Dafür ist das bestehende DWH vielleicht gar nicht geeignet. Ein spezialisierter Berater kann dabei helfen, den aktuellen und künftigen Bedarf zu ermitteln, das DWH daraufhin zu überprüfen und die richtige Entscheidung zu treffen. (Axians: ra)

eingetragen: 17.12.18
Newsletterlauf: 01.02.19

Axians: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Tipps und Hinweise

  • AIOps-Ansatz liefert klare Vorteile

    Über Fehler in ihrem IT-Betrieb erfahren Unternehmen heute meist dadurch, dass sich Kunden über Probleme beschweren. Eine Umfrage von AppDynamics hat ergeben, dass 58 Prozent der IT-Teams durch Anrufe oder Kunden-E-Mails über Fehlfunktionen informiert werden. Führungskräfte oder andere Mitarbeiter außerhalb der IT entdecken 55 Prozent der bekannten Probleme. 38 Prozent werden durch User Posts in sozialen Netzwerken aufgedeckt. Natürlich wäre es für alle Beteiligten besser, wenn Unternehmen Fehler finden, bevor sich Kunden beschweren, oder sogar strukturelle Probleme so früh erkennen, dass Fehler gar nicht erst auftreten. Die enorme Komplexität heutiger Systeme und Infrastrukturen erlaubt das, zumindest auf konventionellen Wegen, nicht mehr. In einem vergleichsweise einfachen technischen System, wie einer Dampfmaschine, kann ein guter Maschinist durch regelmäßige Wartung für einen reibungslosen Betrieb sorgen. Er weiß, wo er seine Maschine schmieren muss, welche Belastungen er ihr zumuten kann und wann es Zeit wird, Verschleißteile auszutauschen. In modernen digitalen Systemen können Menschen dieses Verständnis nicht mehr erreichen.

  • Angst vor einem "Lock-in"

    Die Wahl der richtigen Plattform für Unternehmensapplikationen mag auf den ersten Blick nebensächlich erscheinen, dabei hat sie immensen Einfluss auf alle folgenden Entscheidungen im Hinblick auf die Entwicklungsumgebung. Denn fällt die Wahl auf den falschen Cloud Computing-Anbieter, das falsche Betriebssystem oder die falsche Programmiersprache kann das im Nachhinein bei Mitarbeitern zu Unzufriedenheit und Zähneknirschen führen und durch erhöhten Personalaufwand richtig teuer werden. Um das zu vermeiden, geht der Trend in Entwicklungsteams immer mehr zu (Software-)Containern und Microservices. Indem sie Fremdmaterial entfernen und die Größe der Images auf das erforderliche Maß reduzieren, erleichtern es Container, Software zielgerichtet einzusetzen. Und diese Konzentration auf das Wesentliche steigert die Produktivität von Entwicklern enorm. Eine Umfrage von 451 Research hat das jüngst noch einmal eindrucksvoll belegt: Rund 57 Prozent der befragten Unternehmen nannten die Produktivität der Entwickler als einen entscheidenden Grund für ihren Wechsel zu Containern.

  • Wie Hosting scheitern kann

    Wer ein Unternehmen betreibt, kommt um eine Präsenz im Web nicht herum. Egal ob Gastronomie, Industrie, Handwerk, Fashion, Kosmetik, Medien, Versicherungen oder Anwälte, selbst kleinste Privatunternehmer nutzen eine Internetseite, um ihre Dienste oder Produkte anzubieten. Dabei ist es wichtig, dass die Seite online immer verfügbar ist, sehr schnell lädt und es nicht zu Ausfallzeiten kommt. Je mehr Inhalt eine Website bietet und je höher die Besucherzahlen sind, umso größer ist die Gefahr, dass es zu Ausfällen oder langen Ladezeiten kommt. Dies betrifft jedoch nicht nur kleine Unternehmen, sondern auch Mittelständler und Enterprise. "Ein optimaler Webauftritt kann nur mithilfe von Hosting in professionellen Rechenzentren ausfallsicher und hochperformant abgebildet werden", weiß Torben Belz, Geschäftsführer der Plutex GmbH, und fügt hinzu: "Wer sich im Dschungel der Hosting-Optionen nicht auskennt, kann hier schnell Fehler machen."

  • Georedundanz gebender Rechenzentren

    Kurz vor Weihnachten hat das BSI (Bundesamt für Sicherheit in der Informationstechnik) seine Empfehlung für die Entfernung georedundanter Rechenzentren von fünf auf 200 Kilometer angehoben. Die Gründe für diese Empfehlung sind im neuen Leitfaden des BSI "Kriterien fu¨r die Standortwahl höchstverfügbarer und georedundanter Rechenzentren" genau dokumentiert. Was die Entfernung von einander Georedundanz gebender Rechenzentren betrifft, empfahl das BSI bisher einen Mindestabstand von fünf Kilometern. Mit der neuen, im Dezember 2018 veröffentlichten Empfehlung, hebt das BSI diese Distanz drastisch an. "Da es aber, insbesondere durch den Blick in die Vergangenheit, nicht möglich ist, zukünftige potentiell schädliche Situationen und Ereignisse ausreichend sicher vorherzusagen, sollten einander Georedundanz gebende Rechenzentren einen Mindestabstand von circa 200 Kilometer zueinander haben", führt das BSI in seinen Standort-Kriterien unter Punkt 3.3 aus - 40-mal so viel wie bisher. "Ist im Einzelfall ein deutlich geringerer Abstand unabweisbar", so das BSI weiter, " ist diese Notwendigkeit schriftlich ausführlich darzulegen und einer Risikoanalyse zu unterziehen". Doch auch dann, sollten georedundante Rechenzentren keinesfalls unter 100 Kilometer auseinanderliegen.

  • Cloud-Migration schnell und sicher umsetzen

    Entscheiden sich Unternehmen, ihre Applikationen in die Cloud zu migrieren, können sie nur profitieren. Denn die Cloud macht viele Digitalinnovationen überhaupt erst möglich. Allerdings kann beim Weg in die Cloud auch einiges schief gehen: Mangelndes Know-how, unrealistische Zeitvorgaben oder die Wahl der falschen Plattform sind gängige Stolpersteine. Richtig geplant wird die Migration in die Cloud jedoch zum Erfolgsprojekt. Rackspace hat drei Punkte zusammengestellt, auf die es bei der Planung ankommt.

  • Geschäftsprozesse in die Cloud verlagern

    Die Verlagerung von Geschäftsprozessen und Applikationen in die Cloud erfordert eine genaue Planung, damit die Datensicherheit zu jeder Zeit und in jedem Detail gewährleistet ist. Die Diskussion um den Einsatz von Cloud-Technologien ist mittlerweile nicht mehr von Sicherheitsbedenken geprägt. Heute wollen Unternehmen in erster Linie die damit verbundenen Chancen nutzen, um die Digitale Transformation voranzutreiben. Wenn Unternehmen komplette Geschäftsprozesse in die Cloud verlagern, lassen sich die erwarteten betriebswirtschaftlichen Ziele nur dann erreichen, wenn die Migration von Anfang an durch eine umfassende IT-Security-Strategie abgesichert ist - bei der die Sicherheit der Daten eine entscheidende Rolle spielt. NTT Security konkretisiert die wichtigsten Aktivitäten in fünf Schritten.

  • Daten nur verschlüsselt in der Cloud speichern

    Das Nutzen von Cloud Computing-Services gehört für die Mehrheit der Unternehmen längst zum festen Bestandteil der IT-Strategie. Die Möglichkeit des Datenzugriffs jederzeit und überall bringt zahlreiche Vorteile mit sich, allen voran verbesserte Flexibilität und erhöhte Produktivität. Die gestiegene Popularität dieser Dienste ist jedoch von böswilligen Akteuren nicht unbemerkt geblieben, was neue Arten von Cyberangriffen hervorgebracht hat. Eine Taktik, die in den vergangenen Jahren zunehmend zum Einsatz kam, ist der sogenannte "Man-in-the-Cloud" (MitC)-Angriff.

  • Daten in der Cloud und Cloud-Workloads

    As-a-Service-Lösungen verbreiten sich immer weiter. Dabei haben wir es längst nicht mehr mit einer einzigen Cloud zu tun. 82 Prozent der Unternehmen nutzen mehr als zehn verschiedene Public-Cloud-Dienste, so eine aktuelle Studie von McAfee. Dazu kommen noch Private Clouds und On-Premise-Systeme. Traditionelle Sicherheitssysteme stoßen im Angesicht dieser neuen komplexen Architekturen schnell an ihre Grenzen und Unternehmen drohen den Überblick zu verlieren. Rolf Haas, Enterprise Technology Specialist von McAfee, hat fünf Tipps um das zu verhindern:

  • Data Warehouse als erstes in die Cloud

    Die Migration des Data Warehouse in die Cloud ist für Unternehmen, die Teile ihrer Infrastruktur in die Cloud verlegen, ein wichtiger und über kurz oder lang auch notwendiger Schritt. Als eines der wichtigsten Puzzleteile der Infrastruktur, ist er leider auch meist sehr komplex und mit hohen Kosten verbunden. Anstatt die Migration dieses wichtigen Bestandteils der Dateninfrastruktur unnötig zu verzögern, können Unternehmen auf Automation setzen, um den Prozess zu vereinfachen. Ein wichtiges langfristiges Ziel vieler Unternehmen, im Prozess der Digitalen Transformation, ist die Nutzung von Cloud-Technologien. Schaut man sich die Zahlen der Cloud-Adaption jedoch genauer an, so sind offenkundig noch viele Unternehmen weit davon entfernt Teile ihrer Infrastruktur in die Cloud zu migrieren. Anstatt das langfristige Ziel Cloud, entschlossen anzupacken, prokrastinieren diese Unternehmen und setzen stattdessen oft auf Zwischenlösungen oder Abkürzungen. Und anstatt die wichtigen Bestandteile der Infrastruktur zuerst zu migrieren, wählen sie zuerst eher einfach zu migrierende Teile aus.

  • Datenstrategie braucht mehr als Tools

    Die Menschheit produziert 2,5 Trillionen Bytes pro Tag. In den letzten zwei Jahren wurden mehr Daten gesammelt, als in der gesamten Menschheitsgeschichte zusammen. Für jeden Menschen entstehen pro Sekunde 1,7 Megabyte neue Rohinformationen. Kurzum: Die Datenflut ist unaufhaltsam. Wobei diese Datenflut nicht automatisch bedeutet, dass daraus auch Wissen entsteht. Daten und Informationen an sich haben zunächst keinen Wert. Sie sind wie Rohdiamanten, die erst durch ihre Verarbeitung Brillanz gewinnen. Auch für Unternehmen entfalten Kundendaten erst ihren Wert, wenn sie ausgewertet einen Erkenntnisgewinn liefern, der zu neuen Handlungsoptionen führt. Das bedeutet, dass Unternehmen eine Datenstrategie brauchen, die ihre Geschäftsprozesse fundiert und leitet.