- Anzeige -


Sie sind hier: Startseite » Markt » Hintergrund

Cloud-Migration bis zu 50 Prozent schneller


DataOps und die Entwicklung digitaler Angebote: Mit virtuellen Datenumgebungen ist der Erfolg vorprogrammiert
Fünf Gründe, warum die DataOps-Technologie die Software-Entwicklung heute und künftig beschleunigt

- Anzeigen -





Von Minas Botzoglou, Regional Director DACH bei Delphix

Das zügige Umsetzen von innovativen Ideen in digitale Angebote ist erfolgsentscheidend. Dies setzt allerdings voraus, dass Software-Entwicklern und -Testern Daten in der erforderlichen Güte und Schnelligkeit bereitstehen. Zudem gilt es, die Informationsbestände abzusichern und parallel eine Maskierung sensibler Daten durchzuführen. Dieses Anforderungsprofil erfüllt die DataOps-Technologie, die Datenbanken, Applikationen und Dateisysteme auf einfache Weise virtualisiert. Minas Botzoglou, Regional Director DACH bei Delphix, nennt die fünf wichtigsten Gründe, weshalb DataOps bereits heute unverzichtbar für jedes Unternehmen ist, das sich ernsthaft mit der Digitalisierung auseinandersetzt.

1. Überzeugende Datenqualität
DataOps-Lösungen erzeugen "Data Pods". Das sind virtuelle Datenumgebungen, die auf Produktivdaten basieren und Software-Entwicklung unter "realen" Bedingungen ermöglichen. In der Praxis kommen jedoch häufig synthetische Daten zum Einsatz, weil es für Unternehmen zu kompliziert, zu risikoreich, zu teuer und zu zeitaufwändig ist, zig Terabyte Daten von einem Produktivsystem zu kopieren und in eine Entwicklungsumgebung oder auf ein Testsystem zu transferieren. Künstliche Datensätze haben allerdings ein wesentliches Manko: Eine Entwicklung ohne reelle Datenbasis wirkt sich negativ auf die Präzision und die Qualität neuer Applikationen aus. DataOps hingegen automatisiert die Datenaktualisierung aus der Produktion, sodass Tests mit realen und zuverlässigen Daten erfolgen.

2. Beachtliches Bereitstellungstempo
Mithilfe einer DataOps-Plattform lassen sich für Entwickler, Testfachleute und Big Data-Spezialisten innerhalb von Minuten Data Pods auf Basis der Produktivdaten bereitstellen. Ein aufwändiges Hochfahren von voluminösen Test- und Entwicklungsumgebungen ist nicht erforderlich. Beim Verwenden von physischen Datenkopien dauert es mehrere Stunden oder gar Tage bis große Datenbestände zur Verfügung stehen. So gaben die Befragten einer Delphix-Studie an, dass es im Schnitt dreieinhalb Tage dauert, bis eine Test-Umgebung zur Verfügung steht.(1)

3. Multiple virtuelle Datenumgebungen auf einen Klick
DataOps-Technologien sind fähig, Datenbanken und Anwendungen sofort zu installieren oder wiederherzustellen – ungeachtet der Größe des Datensatzes. Nutzer von DataOps-Plattformen haben damit die Option, so viele Kopien der Datenbestände wie nötig zu erstellen und für spezielle Analysen zu verwenden. Das ist beispielsweise für das Aufspüren von Bugs, bei Auswertungen und für Tests sinnvoll. Zudem lassen sich separate Ausgaben für unterschiedliche Versionen einer Applikation einrichten. Ein Entwickler kann bei Bedarf Data Pods zeitweise stilllegen und wieder aktivieren oder auch zwischen verschiedenen Data Pods hin und her wechseln.

4. Integrierter Datenschutz durch Datenmaskierung
Die EU-Datenschutzgrundverordnung (DSGVO), die für alle Unternehmen ab 25. Mai 2018 verbindlich ist, schränkt das Verwenden personenbezogener Daten ein. Denn die DGVO fordert vom datenverarbeitenden Unternehmen, die personenbezogenen Angaben nachweislich zu anonymisieren oder pseudonymisieren. Das ist vor allem in der Software-Entwicklung kritisch, da oft eine Vielzahl von Daten ungeschützt auf unterschiedlichen Entwicklungs- und Testumgebungen abliegt.

Auch wenn externe Entwickler Zugriff auf Unternehmensdaten benötigen, wird dies zur Herausforderung. Das "Maskieren" personenbezogener Informationen ist eine sichere Möglichkeit, um Daten irreversibel zu anonymisieren. Dadurch lassen sich keine Rückschlüsse auf die Identität von Personen schließen. Gleichzeitig werden die sensitiven Daten mit fiktiven, aber realistischen Beständen ersetzt, welche das Entwickeln unter realen Bedingungen gewährleistet. Eine ausgereifte DataOps-Lösung verfügt dabei über Instrumente oder Schnittstellen zu Tools und Skripten von Drittanbietern, um eine gesetzeskonforme Datenmaskierung zu automatisieren.

5. Niedriger Speicherplatzbedarf, höhere Effizienz
Jede virtuelle Datenkopie benötigt nur einen Bruchteil des Speicherplatzes der physischen Version. Aus 10 TByte Produktivdaten wird beispielsweise ein Data Pod von nur 10 GByte. Dadurch verschlanken sich Entwicklungs- und Testumgebungen oft bis auf ein Drittel. Entwickler arbeiten zudem produktiver, weil sie nicht mehr bis zu 50 Prozent ihrer Arbeitszeit mit Verwaltungsprozessen verschwenden. Der Nutzer kontrolliert seine Data Pods effizienter über eine Self-Service-Funktion. Zudem stehen Entwicklern DevOps-Werkzeuge zur Verfügung, mit denen sich ihre Aufgaben und Prozesse automatisieren lassen. Dank Datenvirtualisierung- und Deduplizierungstechnik beschleunigt eine DataOps-Plattform auch die Datenübertragung, wodurch eine Cloud-Migration bis zu 50 Prozent schneller abläuft.

DataOps - so funktioniert's
Eine DataOps-Lösung lässt sich auf allen gängigen Hypervisors installieren. Standardschnittstellen binden Datenbanken wie Oracle, SQL Server, DB2, mySQL oder Sybase, aber auch Applikationen als Datenquellen ein. Von diesen Daten und Applikationen wird eine komprimierte Kopie erstellt, die ständig inkrementell mit der Datenbasis synchronisiert wird. Es werden also nur die Änderungen an den Datenquellen selbst in die Datenkopie übertragen.

Die komprimierten Kopien, auch "Data Pods" genannt, lassen sich in beliebiger Menge erstellen und können so für Entwickler, Tester oder Datenanalysten bereitgestellt werden. Individuelle Self-Service-Zugänge ermöglichen es Administratoren Zugriffsrechte festzulegen und die entsprechend benötigten Datensätze freizugeben. Somit lässt sich die nötige Kontrolle durch Daten-Administratoren mit der schnellen Bereitstellung von Daten für agiles Entwickeln und Testing in Einklang bringen. DataOps-Plattformen lassen sich sowohl in Unternehmensrechenzentren, in Public oder auch Hybrid-Clouds betreiben. (Delphix: ra)

eingetragen: 04.03.18
Newsletterlauf: 13.04.18

Delphix: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Hintergrund

  • Cloud Computing ist sicherer, als man denkt

    Cloud Computing ist weiter auf dem Vormarsch. Anfängliche Bedenken von hauptsächlich mittelständischen Unternehmen ihre Daten außer Haus zu geben, schwinden. Das Internet der Dinge wird noch einmal für Beschleunigung sorgen. Selbst Regierungen und Militärs setzen inzwischen auf Services und die Datenspeicherung in der Wolke. Damit bekommt das Thema Sicherheit noch einmal eine ganz neue Facette. Cloud Computing ist nicht gleich Cloud Computing. Während auf Unternehmensebene zumeist über die Unterscheidung zwischen Public und Private Cloud diskutiert wird, geht es auf der Ebene von Regierungen und Militärs um den Unterschied zwischen Single- und Multi-Cloud-Strategien. Eine Diskussion, die sich im privaten Umfeld längst erledigt hat. Hier dominiert die Multi-Cloud. Gerade seitens der Militärs wird allerdings sehr stark der Single-Cloud-Ansatz verfolgt, bei dem alle Services von einem einzigen Anbieter bezogen werden. Auf diese Weise versucht man die Zahl der Angriffsflächen für mögliche Cyber-Bedroher einzuschränken.

  • Auswirkungen auf das Datenmanagement

    Für Firmen wird es immer schwieriger, effizient und verantwortungsbewusst mit ihren Daten umzugehen: Viele haben schier den Überblick verloren. Das muss allerdings nicht sein: Mit DataOps hilft ein neuer Ansatz im Datenmanagement wieder Ordnung in die Datenbanken zu bringen. Laut einer aktuellen Studie des Forschungs- und Beratungsunternehmens 451 Research unter 150 Führungskräften, wachsen die Daten eines Großteils der befragten Firmen täglich beträchtlich: Bei 29 Prozent um 100 bis 500 Gigabyte (GB) pro Tag und bei 19 Prozent um 500 GB bis 1 Terabyte (TB). Immerhin noch 13 Prozent verzeichnen sogar eine Zunahme von 2 TB.

  • Lösung: ein Remote-Cloud-System

    Kaspersky Lab hat eine experimentelle Cloud-Infrastruktur für bionische Prothesen des russischen Hightech-Start-Ups Motorica aus Perspektive der IT-Security genauestens unter die Lupe genommen und mehrere bisher unbekannte Sicherheitsprobleme identifiziert. Unbefugte könnten so auf höchstsensible Patientendaten zugreifen und diese manipulieren, stehlen oder löschen. Die Ergebnisse der Untersuchung wurden dem Hersteller umgehend mitgeteilt.

  • Service Design & Transition - Aufbau von Services

    Mehr Klarheit im unübersichtlichen Feld von Service Management: Das versprechen die neuen Quadranten des ISG Provider Lens Reports. Die Marktbetrachtung bietet sauber aufgeteilte Unterkategorien und Herstellerbewertungen. Für Experten perfekt, aber für Laien ist es trotzdem nicht einfach, sich hier zurechtzufinden. Ein Kunde, der heute einfach nur seine IT in den Griff bekommen will, hat es nicht leicht. Er wird konfrontiert mit Kürzeln wie SIAM, ITSM und BPM. In jedem dieser Bereiche tummelt sich eine Reihe von Anbietern, die wiederum versuchen, einzelne Begriffe zu prägen. Für mehr Transparenz sind jetzt die Analysten gefragt - so wie die ISG Group mit ihrem Provider Lens Quadrant Report.

  • IT-Ressourcen aus der Cloud

    Das Thema Künstliche Intelligenz wird von immer mehr Menschen als eine wichtige Schlüsseltechnologie angesehen. Dies bestätigt eine Umfrage des ITK-Verbands Bitkom im Dezember 2018: Zwei Drittel der Befragten sehen den Wohlstand gefährdet, wenn Deutschland bei der Künstlichen Intelligenz nicht zu den führenden Nationen gehört. Eine Mehrheit von 62 Prozent sehen die KI zudem eher als eine Chance als eine Bedrohung. Für die Bundeskanzlerin Angela Merkel ist das Thema ebenfalls ganz oben auf der Agenda: Nach ihrer Meinung müsse Deutschland ein führender Standort für Künstliche Intelligenz werden.

  • Vorteile einer Hybrid-Multi-Cloud ausschöpfen

    2019 werden viele Unternehmen eine Cloud-First-Strategie verfolgen, um von mehr Flexibilität, Agilität und Kostenersparnis zu profitieren. Laut einer aktuellen Studie von Forrester Consulting haben bereits 86 Prozent der Unternehmen eine Multi-Cloud-Strategie. Aber ob sie nun die Services von verschiedenen Providern beziehen oder "nur" Private- und Public Cloud in einer Hybrid Cloud kombinieren mit einem - wie wir ihn nennen - Hybrid-Multi-Cloud-Ansatz, können sich Kunden für jeden Anwendungsfall die jeweils beste Lösung herauspicken. Wer mehrere Clouds gleichzeitig nutzt, steht aber auch vor neuen Herausforderungen in Bezug auf das Datenmanagement.

  • Die wichtigsten Cloud-Trends 2019

    Was bringt das Jahr 2019? Keine Frage: Die Cloud wird immer wichtiger. Doch eine Cloud-Form allein reicht den meisten Unternehmen nicht mehr aus. Viele setzen auf eine Hybrid- oder Multi-Cloud-Umgebung. Verteilte Speicherorte und Datenquellen spielen auch für künstliche Intelligenz eine wichtige Rolle - ein Top-Thema, das weiter Fahrt aufnehmen wird. Dabei erfordern sowohl KI als auch die Multi Cloud ein unabhängiges Datenmanagement in der Cloud. Was sich hinter diesen Trends verbirgt und wie sie zusammenspielen, zeigt Peter Wüst, Senior Director Cloud Infrastructure & Cloud Data Services EMEA bei NetApp, im folgenden Beitrag.

  • Künstliche Intelligenz unterstützt ITSM-Prozesse

    Laut Schätzung des Marktanalysten Gartner werden CIOs bis 2023 mehr als das Dreifache der Endgeräte verantworten, als sie aktuell verwalten. Ohne technologische Unterstützung werden sie diese Aufgabe auf Dauer kaum bewältigen können. Doch welche Technologiethemen sollten CIOs 2019 im Blick behalten, wenn es um die Vereinheitlichung des IT-Betriebs und den Abbau von Silos geht? Ivanti hat vier Fokusbereiche im IT-Servicemanagement identifiziert: Maschinelles Lernen und Künstliche Intelligenz (KI) finden in den kommenden fünf Jahren einen großflächigen Eingang in das ITSM. Artificially Intelligent Service Management (AISM) wird dabei im ersten Schritt das traditionelle Service Management ergänzen. Die zentralen Stärken für KI liegen im Incident und Request Management, indem sie Vorfälle und Anfragen interpretiert, bevor diese in das traditionelle IT-Servicemanagement eingesteuert werden.

  • Datensicherheit und Compliance

    Die Cloud-Nutzung hat 2018 einen neuen Höchststand erreicht und der Wachstumstrend wird voraussichtlich weiter anhalten. Mit einer beschleunigten Bereitstellung, einer flexibleren Kostengestaltung der Services und einfacheren Arbeitsabläufen bietet sie Vorteile, auf die Unternehmen im Zuge der Digitalisierung nicht verzichten können. Die unmittelbaren Vorteile tragen jedoch dazu bei, dass die damit verbundenen Konsequenzen für die IT-Sicherheit bei Unternehmen zunächst außer Acht gelassen werden. Die wesentliche Herausforderung für Unternehmen besteht darin, die in die Cloud ausgelagerten und genutzten Daten sicherzustellen. Für nicht wenige Organisationen bedeutet dies jedoch ein nahezu radikales Umdenken. Zusätzlich zur Sicherung von Umgebungen und Infrastrukturen ist eine weitere Ebene erforderlich, die bei den Daten ansetzt. Wie Unternehmen sich dieser Herausforderung nähern, welche Maßnahmen sie ergreifen und welche wesentlichen nächsten Schritte sie in diesem Zusammenhang sehen, darüber gibt eine Studie von Bitglass Aufschluss.

  • Fragen nach der richtigen Cloud

    Viele der Trend-Technologien wie Künstliche Intelligenz (KI) oder das Internet of Things (IoT) sind bereits bekannte Größen. Diese werden sich durch ihre Rolle im Datenmanagement neu definieren - und dann eine noch zentralere Rolle im Arbeitsalltag einnehmen. Zusammen mit Containerisierung und noch intelligenteren IoT-Edge-Geräten können Entwickler damit im kommenden Jahr die nötigen Impulse für einen datengetriebenen Markterfolg und neue Geschäftsmöglichkeiten setzen.