- Anzeige -


Sie sind hier: Startseite » Markt » Tipps und Hinweise

Datenintegration zwischen Cloud & On-Premise-Daten


Drei Fehler, die man bei der Modernisierung von Business-Intelligence-Lösungen vermeiden sollte
Die Cloud ist der große Treiber hinter einer neuen Generation von Business-Intelligence-Anwendungen

- Anzeigen -





Business Intelligence hat sich von großen Software-Monolithen, welche in der Vergangenheit ausschließlich von der IT kontrolliert wurden, zu einem agileren Tool-Set gewandelt. Eine große Rolle spielt dabei auch Nutzerfreundlichkeit durch ansprechende Visualisierung. Nicht umsonst sind Angebote wie Tableau, Qlik und andere am Markt sehr erfolgreich. Sollen solche Werkzeuge nachhaltig im Unternehmen etabliert werden, müssen Verantwortliche einiges beachten. Otto Neuer, Regional VP Sales bei Denodo, zeigt drei häufige Fehler und wie sich diese vermeiden lassen.

1. Fehlende Strategie für eine vollständige Integration heterogener Datenquellen
Unternehmen schöpfen ihre Daten heutzutage aus einer Vielzahl unterschiedlicher Quellen, um Informationen über neue Märkte, Kundenpräferenzen und vieles mehr zu sammeln. Moderne BI-Lösungen (Business Intelligence) kommen dabei mit unterschiedlichen Datenquellen zurecht, von traditionellen Datenbanken bis zu unstrukturierten Quellen.

Herkömmliche ETL-Prozesse stoßen dagegen bei der Menge und der Komplexität heutiger Daten schnell an ihre Grenzen. Das gleiche gilt auch für klassische Data Warehouses. Die Abhängigkeit von 20 Jahre alten, auf ETL-Prozessen basierenden Architekturen als Standarddatenintegration kann so die Möglichkeiten moderner BI-Lösungen einschränken. Solche veralteten Prozesse sind zeit- sowie ressourcenintensiv und beschränken Datenanbindung, -Verarbeitung und Bereitstellung. Heutige Anwendungsfälle wie Live Dashboards oder Mobile Apps lassen sich damit schwer umsetzen.

Die Nutzung von Data-Adaptern oder Connectors hat ebenfalls Schwächen. Die Punkt-zu-Punkt-Verbindungen, die bei dieser Methode zwischen einer Quelle und einem oder mehreren Zielen hergestellt wird, sind nur sehr aufwändig zu verwalten. Die dadurch entstehende gesteigerte Komplexität sorgt für eine höhere Fehleranfälligkeit. Beispielsweise kann es vorkommen, dass nicht jedes Reporting Tool Zugriff auf alle notwendigen Ressourcen hat. Das bedeutet, dass Anwender mehrere Tools nutzen müssen, die oft untereinander inkonsistente Ergebnisse liefern. Stattdessen sollten Unternehmen einen proaktiven automatisierten Ansatz verfolgen, um Integritätsprobleme schnell aufzudecken.

Um eine moderne BI-Plattform zu unterstützen, benötigen Unternehmen eine zeitgemäße Datenarchitektur, welche die Konnektivität mit einer Vielzahl von Datenquellen – strukturiert und unstrukturiert, relational und nicht-relational, On-Premise und in der Cloud – ermöglicht. Moderne Datenintegrationsansätze wie Datenvirtualisierung schaffen als Middleware eine Abstraktionsschicht, die den Zugriff auf alle Datenbestände unabhängig von Standort und Format erleichtert.

2. Keine Echtzeitanalysen
Das exponentielle Datenwachstum der letzten Jahre hat neben dem schieren Volumen an Information zu weiteren Herausforderungen geführt. Eine davon ist die Geschwindigkeit, mit der Daten heute entstehen. Zudem kommt ein Großteil des neuen Datenaufkommens aus unstrukturierten Quellen, dabei handelt es sich beispielsweise um Sensordaten, Bilder, Chats, Finanztransaktionen, etc. Die immer schnellere Frequenz, mit der Daten entstehen macht heute moderne und agile Methoden der Datenintegration notwendig.

Allerdings sieht die Realität in den meisten Unternehmen so aus, dass sie über in die Jahre gekommene Infrastrukturen verfügen, welche kein umfassendes Reporting in Echtzeit zulassen. Daher müssen alle Daten zunächst repliziert und in einem zentralen Repository aggregiert werden, bevor Analysten und Data Scientists diese nutzen können. Dieser Prozess behindert nicht nur den Echtzeitzugriff, sondern kann auch Duplikationen, Kontextverlust und erhöhte Latenz hervorrufen. Das größte Problem bei diesem Prozess: Die replizierten Daten sind selten völlig synchron mit dem Original und weisen eine gewisse Zeitverzögerung auf.

Wird stattdessen Datenvirtualisierung eingesetzt, verbleiben die Daten in ihrem ursprünglichen Kontext. Über einen Access Layer sind sie dennoch unmittelbar zugänglich. Die Datenquellen werden von den Anwendungen somit gewissermaßen abstrahiert. Zudem bietet Datenvirtualisierung einen ganzheitlichen Überblick über alle integrierten Daten, ohne dass Replikationen notwendig sind.

3. Mangelnde Integrationsfähigkeit von (hybriden) Multi-Cloud Umgebungen
Die Cloud ist der große Treiber hinter einer neuen Generation von Business-Intelligence-Anwendungen. Dennoch verfügen viele Unternehmen immer noch nicht über eine optimale Datenintegration zwischen Cloud und On-Premise-Daten. Ebenso kommen sie mit Deployments über mehrere Clouds hinweg schlecht zurecht. Cloud-Strategien für Business Intelligence sind oft auf ein einzelnes Deployment fokussiert und daher limitiert. Wenn Unternehmen ihre BI Deployments nicht von einem zentralen Punkt aus verwalten können, führt das zu einem ineffizienten Gesamtsystem. Damit haben Organisationen keine Möglichkeit, ein effektives Workload Balancing zu implementieren. Das heißt für die Verantwortlichen, sie müssen viel Zeit damit zubringen, den Daten Herr zu werden, anstatt sich auf ihr eigentliches Geschäft zu konzentrieren.

Erfolgreiche Datenanalyse für die Cloud benötigt heute eine agile Echtzeitintegration, die eine breite Varianz unterschiedlicher Datenquellen abdeckt. Für diese Anforderungen ist Datenvirtualisierung die ideale Lösung. Die Technologie macht Dateninfrastrukturen transparent und ermöglicht das Datenmanagement in hybriden Architekturen, welches den Zugriff sowohl von On-Premise-Systemen als auch von der Cloud zulässt. Gleichzeitig ist es möglich, Workflows zu automatisieren. Moderne Datenvirtualisierungslösungen nutzen Machine Learning, um repetitive Aufgaben zu automatisieren und Empfehlungen für das weitere Vorgehen auf der Grundlage von Nutzungsanalysen zu geben. (Denodo: ra)

eingetragen: 14.02.20
Newsletterlauf: 28.04.20

Denodo: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Tipps und Hinweise

  • Lektion zur Datensicherheit

    Da Schüler, Studenten, Lehrkräfte und Dozenten zunehmend digitale Inhalte, Cloud-Dienste und Online-Anwendungen nutzen, haben Bildungseinrichtungen mit einem exponentiellen Wachstum der von ihnen verarbeiteten Datenmengen zu kämpfen. Um dieser datenintensiven Situation gerecht zu werden, benötigen sie effiziente und zugleich erschwingliche Möglichkeiten, um ihren Speicherbedarf zu erweitern und die Datensicherung und -wiederherstellung zu verbessern. Um angesichts des extremen Budgetdrucks effizienter und kostengünstiger wirtschaften zu können, sucht der Bildungssektor nach neuen Wegen und Möglichkeiten. Inzwischen findet die Cloud dabei zunehmend mehr Beachtung. Die Bildungsbranche hat erkannt, dass die Cloud zusätzliche, leistungsfähige Funktionen bietet - und das äußerst kostengünstig. Denn wer sich auf die Cloud verlässt, muss kein großes IT-Team vorhalten oder gar ein eigenes Rechenzentrum betreiben. Deshalb wünschen sich Bildungseinrichtungen von der Cloud, dass sie so sicher wie möglich ist und dass der jeweilige Cloud-Anbieter die Verantwortung für den Schutz der Daten übernimmt.

  • Cloud Security-Lösungen gegen APTs

    Mit der fortschreitenden Digitalisierung entwickeln sich auch die Geschäftsanforderungen rasant weiter. Dabei ist die schnelle Bereitstellung von Unternehmensanwendungen für die Einführung neuer, verbesserter Geschäftsabläufe zentral. Für viele Unternehmen ist die Auslagerung von Workloads in die Public Cloud dafür das Mittel der Wahl. Hochverfügbarkeit, Skalierbarkeit sowie Kosteneffizienz eröffnen die Möglichkeit, innovative betriebliche Entwicklungen mit geringem Aufwand umzusetzen. Was die Risikoeinschätzung für die dort gespeicherten Daten anbelangt, müssen viele Unternehmen jedoch umdenken.

  • Sicherheitsanforderungen der Kunden umzusetzen

    Einer aktuellen Bitkom-Studie zu Folge arbeitet momentan jeder zweite Arbeitnehmer mehr oder weniger freiwillig von zu Hause. In vielen Unternehmen wurden die situativ erforderlichen, oftmals neuen Arbeitsregelungen allerdings hastig und wenig vorbereitet eingeführt. Selbst dort, wo Homeoffice bislang gewährt wurde, stellt dieser Schritt eine einschneidende Entscheidung dar. Wo bislang nur manche Mitarbeitergruppen an einzelnen Tagen von zu Hause arbeiten konnten, wurden nun beinahe alle Mitarbeiter in die Heimarbeit geschickt. Daher überrascht es wenig, dass sich laut Bitkom fast 40 Prozent der Mitarbeiter nicht ausreichend für eine Arbeit daheim gerüstet sehen. Managed Service Provider können hier ihre Kunden mit flexiblen und dabei sicheren Lösungen unterstützen. Etwa, indem sie die Wartung der IT aus der Ferne übernehmen und so für eine sichere und stabile IT-Infrastruktur für die Arbeit im Homeoffice sorgen: Remote Monitoring und Management, sowie Cloud Security und Backup können dabei helfen, auch in Infrastruktur-belastenden Krisenzeiten produktive und sichere Arbeitsumgebungen bereitzustellen.

  • Gesundheit der Mitarbeiter oberste Priorität

    Die COVID-19-Pandemie hat Unternehmen weltweit dazu gezwungen, bestehende Unternehmensstrukturen und Arbeitsweisen zu hinterfragen und neu zu denken. Aktuell dominieren Spekulationen darüber, wann sich das Arbeitsleben und der tägliche Umgang miteinander wieder normalisieren - doch was wird nach der Krise "normal" sein? Bereits jetzt ist klar, dass es Veränderungen geben wird und neue, flexiblere Arbeitsweisen endgültig starre Routinen ersetzen. Daher müssen sich Unternehmen schon jetzt damit befassen, wie die Arbeitswelt nach COVID-19 aussehen wird und was ihre Mitarbeiter hierfür benötigen werden.

  • Für zuverlässige Endpoint-Security-Maßnahmen

    Eine entscheidende Maßnahme zur Verlangsamung der Ausbreitung von COVID-19 ist "Social Distancing". Deshalb erlassen viele kommunale und staatliche Einrichtungen jetzt verbindliche Anordnungen hinsichtlich der räumlichen Trennung von Personen. Das hat dazu geführt, dass IT-Teams praktisch über Nacht dafür sorgen müssen, dass die Mitarbeiter von Unternehmen aus dem Homeoffice arbeiten können. Da diese Situation weltweit auf Millionen von Menschen gleichzeitig zutrifft, erleben wir gerade das größte Remote-Working-Projekt aller Zeiten. Der Umzug von Mitarbeitern, deren Computern und ihren Daten aus einer sicheren Büroumgebung ins häusliche Umfeld birgt ein enormes Risiko für die Datensicherheit, technische Störungen, versehentliche Fehler oder gar Cyberattacken. Die nachfolgenden Schritte skizzieren, wie Unternehmen dafür sorgen können, dass langfristig ein sicheres Remote Working möglich ist.

  • Ursachen für das Scheitern von Cloud-Migrationen

    Die Digitalisierung führt in Unternehmen zu einem beispiellos hohen Datenaufkommen. SQL Server-Datenbanken aus Microsoft Azure oder Amazon Web Services (AWS) zu betreiben, sehen viele Unternehmen daher als geeigneten Weg an, um angesichts wachsender Datenflut und komplexeren Analyseanforderungen Performanz und Leistung der IT sicherstellen zu können. Die anfängliche Hoffnung, durch den Wechsel in die Cloud kosteneffizienter arbeiten zu können, erfüllt sich für manche allerdings nicht. Eine bedeutende Ursache dafür könnte darin bestehen, dass Datenbestände vorab nicht für die neue Cloud Computing-Umgebung optimiert wurden. Die Migration sollte deshalb erst nach eingehender Vorbereitung vollzogen werden. Bei der Migration in die Cloud verhält es sich ähnlich wie bei einem Wohnungsumzug: Während man Regale ausräumt und seine Besitztümer in Augenschein nimmt, tauchen Gegenstände auf, von denen man sich gar nicht mehr bewusst war, dass man sie besitzt. Die Frage, die sich dabei unweigerlich aufdrängt, ist: Hat der gesamte Hausstand in der neuen Wohnung noch Relevanz? Oder ist der Zeitpunkt gekommen, einige Bestandteile auszusortieren?

  • Umsetzung einer Cloud-Strategie

    Die Sicherung von Innovations- und Wettbewerbsstärke steht üblicherweise in jedem Lastenheft von Unternehmenslenkern. Doch auch die Entwicklung von Strategien zur Aufrechterhaltung des Geschäftsbetriebs in weniger rosigen Zeiten nimmt an Bedeutung zu. Die jüngsten Ereignisse zeigen, dass dies für viele Unternehmen bedeutet, die Digitalisierung mit Nachdruck voranzutreiben und dabei auch die eigene IT-Strategie auf den Prüfstand zu stellen.

  • Nach dem Homeoffice kommt das Aufräumen

    Digitalisierung und Remote Arbeiten haben drastisch an Akzeptanz gewonnen: Nach einer aktuellen Bitkom-Studie haben im ersten Quartal 2020 neun Millionen Arbeitnehmer erstmals von Zuhause aus gearbeitet. Die schiere Zahl legt nahe, dass nicht alle von langer Hand darauf vorbereitet waren: "Ich vermute, dass viele Cloud Computing-Lösungen genutzt haben, um Dokumente auszutauschen - und die virtuellen Desktops der Mitarbeiter überfüllt sind", meint Norbert Gronau, Professor am Lehrstuhl für Wirtschaftsinformatik, Prozesse und Systeme der Universität Potsdam. Das könnte erheblichen Zusatzaufwand für die Unternehmen bedeuten, rechnet Sven Kaiser vom ECM-Spezialisten Optimal Systems vor: Nach sechs Wochen improvisierter Heimarbeit geschätzte neun Millionen Manntage für das Suchen, Ablegen und korrekte Archivieren der im Homeoffice erzeugten und bearbeiteten Dateien.

  • Daten in der Cloud zu schützen

    Die Cloud bringt eine Fülle von Vorteilen für Unternehmen mit sich, darunter reduzierte Kosten und flexible Skalierung, bietet Cyberkriminellen jedoch auch eine große Angriffsfläche, da enorme Datenmengen an einem Ort gespeichert sind. Cloud Account Hijacking auf Unternehmensebene ist besonders verheerend, wenn dadurch vertrauliche oder geschäftskritische Daten durchsickern oder gefälscht werden. Dies kann erhebliche Kosten, rechtliche Konsequenzen und Reputationsschäden verursachen. Cloud Account Hijacking ist eine gängige Taktik, bei der Cyberkriminelle gestohlene Kontoinformationen eines Opfers missbrauchen. Beispielsweise für das Auspionieren von Unternehmensaktivitäten und Finanztransaktionen, Datenmanipulation und Datendiebstahl sowie weiterführende Spear Phishing-Angriffe auf Kollegen und Geschäftspartner.

  • Aufrechterhaltung der Geschäftskontinuität

    In der aktuellen Situation ist das Homeoffice für viele Arbeitgeber und Arbeitnehmer die beste Lösung. Doch wenn alle auf einmal von zuhause aus arbeiten, sorgt das nicht nur für organisatorische, sondern auch für technische Herausforderungen. In diesen schwierigen Zeiten ist es besonders wichtig, die Geschäftskontinuität aufrecht zu erhalten. Das stellt Organisationen jedoch teilweise vor große Herausforderungen. Zusätzlich geraten im Krisenmodus Lösungsmöglichkeiten schnell aus dem Blick, die sonst alltäglich sind. Steht beispielsweise ein Unternehmen im Normalfall vor einer Aufgabe, für deren Lösung externe Expertise notwendig ist, holt es sich diese Expertise. Das sollte jetzt genauso oder umso mehr gelten, stellen doch die aktuellen Entwicklungen und Maßnahmen besondere Anforderungen an die IT. Obwohl derzeit vieles eingeschränkt wird, stehen den Unternehmen auch weiterhin verlässliche Partner zur Verfügung, an die sie die Aufgaben delegieren können, die sie nicht alleine zu bewältigen in der Lage sind. Was Entscheider auch bedenken sollten: Partner reagieren ebenfalls auf die aktuelle Situation und richten sich auf eine höhere oder spezielle Nachfrage ein.