- Anzeige -


Sie sind hier: Startseite » Markt » Tipps und Hinweise

Sämtliche Datenelemente dokumentieren


Keine Zukunft ohne Daten: Warum Unternehmen jetzt auf Datenvirtualisierung setzen müssen
Dank moderner Technologie ist Datenvirtualisierung nicht nur leistungsfähiger als die klassische Datenintegration, sondern auch agiler und wirtschaftlicher

- Anzeigen -





Die aktuelle biMa-Studie der Sopra Steria Consulting liefert alarmierende Ergebnisse: Nahezu die Hälfte aller Unternehmen (49 Prozent) gibt an, dass ihre Daten für Analysen unvollständig, veraltet oder widersprüchlich sind. Neben der mangelhaften Datenqualität ist laut der Studie auch die fehlende Integration von Daten aus unterschiedlichsten Datenquellen eine Hürde. Unternehmen drohen aufgrund der Widrigkeiten im globalen Wettbewerb den Anschluss zu verlieren. Ohne Datenvirtualisierung ist es kaum möglich, fatale Entwicklungen dieser Art abzuwenden.

Leistungsfähige Abstraktionsschicht vereinfacht Datenzugriff signifikant
Die voranschreitende Digitalisierung hat zu einem enormen Wachstum der weltweit verfügbaren Daten geführt. Während datengetriebene Innovationen in zahlreichen Industrieländern rasant voranschreiten, kämpfen Unternehmen im deutschsprachigen Raum nach wie vor mit unzureichenden technischen und organisatorischen Voraussetzungen. Traditionelle Ansätze wie ETL (Extract-Transform-Load), bei denen Daten für Analysen zunächst gespeichert und transformiert werden müssen, reichen nicht mehr aus, um Schritt zu halten.

Datenvirtualisierung geht einen anderen Weg: Es wird eine Abstraktionsschicht zwischen den vorhandenen Datenquellen und Reporting-Tools geschaffen. Hierbei ist es unwesentlich, um welche Art von Daten-Quelle und Daten-Format es sich handelt. Eine Speicherung der Daten ist nicht zwingend erforderlich, wodurch sich auch äußerst schlanke Integrationslösungen umsetzen lassen. Zudem kann der Datenzugriff in Echtzeit erfolgen. Die Konsistenz und Korrektheit der Informationen kann über Transformations-Funktionen implementiert werden. Darüber hinaus können bestehende Reporting-Werkzeuge wie BI-Lösungen, Portale, Dashboards, Apps und Unternehmenssoftware weiter genutzt werden, da die Abstraktionsschicht für eine Aufbereitung im notwendigen Zielformat sorgt.

Erheblicher Mehrwert durch Integrität, Konsistenz und Aktualität
Dank moderner Technologie ist Datenvirtualisierung nicht nur leistungsfähiger als die klassische Datenintegration, sondern auch agiler und wirtschaftlicher. Hierfür sorgt zunächst der hohe Automatisierungsgrad. Virtualisierungslösungen führen die Bereinigung, Korrektur, Standardisierung, Aggregation und Transformation von Daten völlig entkoppelt von der Datenquelle und dem Datenformat durch, ohne die Daten mehrfach zu speichern. Aus technischer Sicht übernimmt ein Virtualisierungsserver die Datenbereitstellung. Er hat die Kernaufgabe, gespeicherte Daten aus nahezu allen On-Premise und Cloud-Quellen zu integrieren. Business-Anwender arbeiten dank dieses Ansatzes nur noch mit einer zentralen, logischen Datenbank. Verteilte Systeme und Cloud-Migrationen sind somit nicht mehr wahrnehmbar. Nicht zuletzt gewährleistet der Server ein hohes Maß an Datenschutz und Datensicherheit.

In zunehmend schnelllebigen Märkten sind Ad-hoc-Analysen ein weiterer wichtiger Faktor. Unternehmen können es sich schlicht nicht mehr leisten, mehrere Wochen auf die Umsetzung neuer Reports zu warten. Auch hier spielt Datenvirtualisierung ihre Stärken aus. Sie ermöglicht den Echtzeit-Zugriff auf qualitativ hochwertige Daten im notwendigen Format. Dies wiederum führt zu einer schnelleren Reaktionsfähigkeit bei Marktveränderungen und zu einer verkürzten Time-to-Market bei neuen Produkten oder Services.

Verlässliche, nachvollziehbare und anpassbare Daten
Bei Bedarf haben Unternehmen mithilfe der Datenvirtualisierung die Möglichkeit, sämtliche Datenelemente zu dokumentieren. Zudem lassen sich Schlagwörter vergeben, nach denen die Endanwender suchen können. Weiterhin können die Beziehungen zwischen den Datenelementen visualisiert werden. Aufgrund der zentralen Definition und Speicherung wird außerdem der Transformationsprozess von der Quelle bis zum Zielformat transparent. Dies stärkt das Vertrauen in Analyse-Ergebnisse zusätzlich.

Als weiterer Vorteil sei die Anpassbarkeit der Daten genannt. Aufgrund der zentralen Verfügbarkeit sämtlicher Transformationsspezifikationen und dem reduzierten Bedarf an physischen Datenbankkomponenten lassen sich Umgebungen wesentlich einfacher an neue, individuelle Erfordernisse anpassen. Datenvirtualisierung fördert also die Informationsagilität und -flexibilität.

Intelligente Lösung für den Zugriff auf Unternehmensdaten
Datenvirtualisierung ermöglicht es Unternehmen, den Mehrwert von Unternehmensdaten auf intelligente und wirtschaftliche Weise zu erschließen. Vorteilhaft ist insbesondere der parallele Echtzeit-Zugriff auf unterschiedlichste, unternehmensweit genutzte Datenhaltungssysteme. Die hierdurch entstehende Reaktionsfähigkeit ist als klarer Geschäftsvorteil zu werten.
(Denodo: ra)

eingetragen: 11.08.19
Newsletterlauf: 11.09.19

Denodo: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Tipps und Hinweise

  • Sicherheit durch dedizierte Cloud-Ressourcen

    Unternehmen gehen immer öfter in die Public Cloud, sorgen sich gleichzeitig aber auch immer stärker um die Sicherheit ihrer Unternehmensdaten. Consol gibt vier Empfehlungen, die die Sicherheit in der Public Cloud gewährleisten. Diese und weitere Tipps stehen auch im Leitfaden "Cloud Security" von Consol kostenlos zum Download bereit. Was viele Unternehmen, die Angebote aus der Public Cloud nutzen, nicht wissen: Zwar ist der Cloud-Provider für die Sicherheit verantwortlich - aber lediglich für die Service-Schichten, die er seinen Kunden anbietet. Bei Infrastructure-as-a-Service (IaaS) zum Beispiel sind dies Netzwerk, Speicher, Server und Virtualisierung. Für die restlichen IaaS-Schichten Betriebssysteme, Middleware, Runtime, Daten und Applikationen trägt der Kunde die Verantwortung und muss sich selbst um die Sicherheit kümmern. Mit den folgenden vier Empfehlungen von Consol stehen Unternehmen auch in der Public Cloud auf der sicheren Seite.

  • ERP-Umstieg in die Cloud

    New Work, ein neues Arbeiten, ist die logische Konsequenz aus der fortschreitenden Digitalisierung. Flexibleres Arbeiten und Homeoffice-Modelle nehmen immer mehr zu. Das ERP-System als Schaltzentrale darf da nicht hinterherhinken - und so denken immer mehr Unternehmen über ein ERP aus der Cloud nach. Damit der Umstieg gelingt, empfiehlt proAlpha einen Acht-Punkte-Plan. Der Arbeitsplatz der Zukunft hat immer seltener einen festen Schreibtisch. Denn webbasierte Software aus dem Internet ermöglicht ein orts- und zeitunabhängiges Arbeiten. Für eine erfolgreiche Einführung von ERP-Systemen aus der Cloud empfiehlt der Software-Hersteller proAlpha acht Punkte zu beachten:

  • Strafzahlungen wegen Datenschutzverletzungen

    Graumarktanbieter sind kein neues Phänomen. Durch das gestiegene Interesse für Software-as-a-Service (SaaS) entstehen mehr und mehr Anbieter, die ihr Produkt auf illegalem Betriebsweg verkaufen. Nicht immer sind sich die Kunden beim Kauf über die Nachteile bewusst. Besonders, wenn es um Software geht, bietet die direkte Zusammenarbeit mit dem Hersteller mehr Sicherheit. Die OTRS AG hat vier Vorteile zusammengestellt, von denen Kunden bei einer direkten Zusammenarbeit mit dem Hersteller profitieren.

  • Sieben Tipps für mehr Security in der Public Cloud

    Sorgen um die Datensicherheit in der Public Cloud halten sich hartnäckig. Eine Sophos Studie beweist dann auch, dass eine reale Bedrohungslage existiert. Aber: Mehr Sicherheit in der Public Cloud geht. Sophos gibt sieben wertvolle Tipps. Die Cloud ist für Unternehmen eine feine Sache. Für passende Zwecke optimal eingesetzt gewährt sie unzählige Vorteile wie hohe Flexibilität oder eine Optimierung von Ressourcen und Budgets. Viele Unternehmen nutzen bereits heute eine Mischstruktur aus On-Premise-Installationen, Private Cloud und eben auch Public Cloud. Anbieter von Cloud Computing-Diensten betreiben dabei einen immensen Aufwand, um ihre Infrastruktur und Kundendaten zu schützen - mehr als die meisten Unternehmen für die hauseigene Infrastruktur. Grundsätzlich führt die Nutzung Cloudbasierter IT-Sicherheitslösungen daher oft sogar zu einem Sicherheitsgewinn. Dies gilt allerdings vor allem für Public-Cloud-Dienste im Bereich Software-as-a-Service (SaaS) und Business-Process-as-a-Service.

  • UCaaS-Lösungen bieten alle SaaS-Vorteile

    In vielen großen Unternehmen in Deutschland sollen derzeit die herkömmlichen On-Premise-Kommunikationslösungen ersetzt werden. Gesetzt ist meist - aufgrund der vielen Vorteile - der Schritt hin zu Unified Communications, bezogen als Software-as-a-Service (SaaS). Doch es gibt große Unterschiede zwischen verschiedenen UC-Lösungen, auch wenn sie oberflächlich betrachtet alle als SaaS-Angebote daherkommen. Dabei geht es nicht nur um den Preis, das Look and Feel oder einzelne Features. Die Unterschiede betreffen vielmehr alle Aspekte der Cloud-Strategie eines Großunternehmens. Der Unified-Communication-as-a-Service (UCaaS)-Anbieter Fuze kennt sich gut mit dieser Thematik aus und erläutert im folgenden Text die Unterschiede, damit Unternehmen eine fundierte Entscheidung über ihren künftigen UC-Partner treffen können.

  • Themen bei Microsoft-Kunden

    Laut IT-Dienstleisters Syntax stehen für Unternehmen, die Microsoft-Lösungen einsetzen, aktuell vor allem zwei große Aspekte im Mittelpunkt. Zum einen wird die Umsetzung von Modern-Workplace-Konzepten vorangetrieben, die dem Nutzer eine zentrale Schnittstelle für Kommunikation und Kollaboration mit einer einheitlichen Benutzeroberfläche bereitstellen und so interne und externe Prozesse effizienter gestalten. Der zweite große Trend ist die Migration oder Neuimplementierung kritischer Anwendungen und Prozesse auf Microsoft Azure als zentraler Public-Cloud-Plattform und die Nutzung von Plattformdiensten, die unter anderem auf künstlicher Intelligenz basieren und so neue Umsatzmodelle ermöglichen. Bei der Umsetzung dieser Ziele setzt Syntax auf ausgezeichnete Expertise, gerade wurde Constantin Klein, Team Lead Microsoft Consulting bei Syntax, zum zehnten Mal in Folge von Microsoft als "Most Valuable Professional" (MVP) ausgezeichnet.

  • Wechsel in die Cloud nicht von heute auf morgen

    IT-Verantwortliche müssen sich heutzutage mit den verschiedensten Herausforderungen auseinandersetzen, die eine Migration in die Cloud mit sich bringen. Obwohl sich die Cloud-Nutzung in den letzten Jahren stark verbreitet hat, haben einige Unternehmen trotzdem das Gefühl, noch nicht das volle Potenzial der Cloud ausgeschöpft zu haben. Die Gründe hierfür lassen sich allerdings leicht identifizieren und die Cloud Computing-Nutzung kann mithilfe ein paar grundlegender Maßnahmen entsprechend optimiert werden.

  • Nicht alle Cloud-Services sind gleich aufgebaut

    Governance und Agilität? Wie geht das denn zusammen? Schließlich bedeutet Agilität die Fähigkeit, schnell und flexibel zu handeln. Governance hingegen zielt darauf ab, Prozesse zu prüfen und zu kontrollieren - was die Dinge meist verlangsamt. Das muss aber nicht sein: Rackspace beispielsweise arbeitet mit Governance-Modellen, die explizit für den agilen Betrieb der (Public-)Cloud entwickelt wurden - und so beiden Ansprüchen gerecht werden können. Die Public Cloud erweist sich als extrem leistungsfähig. Aber: Mit der Kraft der Cloud gehen auch Herausforderungen einher. Bei AWS beispielsweise stehen derzeit 160 Dienste zur Verfügung und es werden jedes Jahr Hunderte (wenn nicht Tausende) neuer Funktionen veröffentlicht. Wie können Unternehmen hier sicherstellen, dass alle Compliance- und regulatorischen Verpflichtungen (z.B. DSGVO) auch eingehalten werden?

  • Auslagern statt selber machen

    Immer größere Datenmengen, vermehrter Einsatz digitaler Prozesse sowie Anforderungen an Compliance, Verfügbarkeit, Skalierbarkeit und Sicherheit stellen Unternehmen beim Management ihrer IT-Umgebung vor zum Teil große Herausforderungen. Denn eine funktionierende IT-Infrastruktur ist zwar notwendig für reibungslose Abläufe im Unternehmensalltag, doch geht der interne Aufbau von Hardware und Software mit hohen Kosten einher und benötigt ein hohes Maß an Fachwissen. Auch der ständige Einsatz von Fachpersonal verursacht hohe Ausgaben. Längst hat sich Outsourcing an entsprechende Dienstleister hier bewährt. "Nehmen Unternehmen externe Leistungen in Anspruch, profitieren sie von umfassendem Service und Know-how, sparen Kosten und minimieren Risiken", weiß Torben Belz, Geschäftsführer der Plutex GmbH aus Bremen, und ergänzt: "Doch viele Unternehmen scheuen diesen Schritt noch immer, weil sie Angst haben, dass das Outsourcing nicht reibungslos verlaufen und in der Folge zu vielen weiteren, möglicherweise langfristigen Problemen führen könnte."

  • Zukunftsinvestition: DataOps-Plattform

    Langsam, aber sicher ist DataOps kein Fremdwort mehr. Immer mehr Tools und Lösungen werben mit dem Begriff für sich. Wie sollen Unternehmen da noch den Überblick behalten? Hier sind drei Fragen, die sich Verantwortliche stellen müssen, wenn sie die richtige DataOps-Technologie für ihre Datenteams einsetzen möchten. DevOps ist heute unerlässlich für alle Unternehmen, die flexibel sein und möglichst schnell qualitativ hochwertige Produkte und Dienstleistungen anbieten wollen. Wer auf DevOps verzichtet, kann sich kaum über einen längeren Zeitraum gegenüber der Konkurrenz behaupten. Denn der Ansatz spielt eine entscheidende Rolle bei der Automatisierung der IT-Infrastruktur und des Softwareentwicklungszyklus. Dennoch hat DevOps bisher ein entscheidendes Element gefehlt, das für viele Innovationen zentral ist: die Datenbereitstellung. Genau hier setzt DataOps an.