- Anzeige -


Sie sind hier: Startseite » Markt » Hintergrund

Cloud-Migration bis zu 50 Prozent schneller


DataOps und die Entwicklung digitaler Angebote: Mit virtuellen Datenumgebungen ist der Erfolg vorprogrammiert
Fünf Gründe, warum die DataOps-Technologie die Software-Entwicklung heute und künftig beschleunigt

- Anzeigen -





Von Minas Botzoglou, Regional Director DACH bei Delphix

Das zügige Umsetzen von innovativen Ideen in digitale Angebote ist erfolgsentscheidend. Dies setzt allerdings voraus, dass Software-Entwicklern und -Testern Daten in der erforderlichen Güte und Schnelligkeit bereitstehen. Zudem gilt es, die Informationsbestände abzusichern und parallel eine Maskierung sensibler Daten durchzuführen. Dieses Anforderungsprofil erfüllt die DataOps-Technologie, die Datenbanken, Applikationen und Dateisysteme auf einfache Weise virtualisiert. Minas Botzoglou, Regional Director DACH bei Delphix, nennt die fünf wichtigsten Gründe, weshalb DataOps bereits heute unverzichtbar für jedes Unternehmen ist, das sich ernsthaft mit der Digitalisierung auseinandersetzt.

1. Überzeugende Datenqualität
DataOps-Lösungen erzeugen "Data Pods". Das sind virtuelle Datenumgebungen, die auf Produktivdaten basieren und Software-Entwicklung unter "realen" Bedingungen ermöglichen. In der Praxis kommen jedoch häufig synthetische Daten zum Einsatz, weil es für Unternehmen zu kompliziert, zu risikoreich, zu teuer und zu zeitaufwändig ist, zig Terabyte Daten von einem Produktivsystem zu kopieren und in eine Entwicklungsumgebung oder auf ein Testsystem zu transferieren. Künstliche Datensätze haben allerdings ein wesentliches Manko: Eine Entwicklung ohne reelle Datenbasis wirkt sich negativ auf die Präzision und die Qualität neuer Applikationen aus. DataOps hingegen automatisiert die Datenaktualisierung aus der Produktion, sodass Tests mit realen und zuverlässigen Daten erfolgen.

2. Beachtliches Bereitstellungstempo
Mithilfe einer DataOps-Plattform lassen sich für Entwickler, Testfachleute und Big Data-Spezialisten innerhalb von Minuten Data Pods auf Basis der Produktivdaten bereitstellen. Ein aufwändiges Hochfahren von voluminösen Test- und Entwicklungsumgebungen ist nicht erforderlich. Beim Verwenden von physischen Datenkopien dauert es mehrere Stunden oder gar Tage bis große Datenbestände zur Verfügung stehen. So gaben die Befragten einer Delphix-Studie an, dass es im Schnitt dreieinhalb Tage dauert, bis eine Test-Umgebung zur Verfügung steht.(1)

3. Multiple virtuelle Datenumgebungen auf einen Klick
DataOps-Technologien sind fähig, Datenbanken und Anwendungen sofort zu installieren oder wiederherzustellen – ungeachtet der Größe des Datensatzes. Nutzer von DataOps-Plattformen haben damit die Option, so viele Kopien der Datenbestände wie nötig zu erstellen und für spezielle Analysen zu verwenden. Das ist beispielsweise für das Aufspüren von Bugs, bei Auswertungen und für Tests sinnvoll. Zudem lassen sich separate Ausgaben für unterschiedliche Versionen einer Applikation einrichten. Ein Entwickler kann bei Bedarf Data Pods zeitweise stilllegen und wieder aktivieren oder auch zwischen verschiedenen Data Pods hin und her wechseln.

4. Integrierter Datenschutz durch Datenmaskierung
Die EU-Datenschutzgrundverordnung (DSGVO), die für alle Unternehmen ab 25. Mai 2018 verbindlich ist, schränkt das Verwenden personenbezogener Daten ein. Denn die DGVO fordert vom datenverarbeitenden Unternehmen, die personenbezogenen Angaben nachweislich zu anonymisieren oder pseudonymisieren. Das ist vor allem in der Software-Entwicklung kritisch, da oft eine Vielzahl von Daten ungeschützt auf unterschiedlichen Entwicklungs- und Testumgebungen abliegt.

Auch wenn externe Entwickler Zugriff auf Unternehmensdaten benötigen, wird dies zur Herausforderung. Das "Maskieren" personenbezogener Informationen ist eine sichere Möglichkeit, um Daten irreversibel zu anonymisieren. Dadurch lassen sich keine Rückschlüsse auf die Identität von Personen schließen. Gleichzeitig werden die sensitiven Daten mit fiktiven, aber realistischen Beständen ersetzt, welche das Entwickeln unter realen Bedingungen gewährleistet. Eine ausgereifte DataOps-Lösung verfügt dabei über Instrumente oder Schnittstellen zu Tools und Skripten von Drittanbietern, um eine gesetzeskonforme Datenmaskierung zu automatisieren.

5. Niedriger Speicherplatzbedarf, höhere Effizienz
Jede virtuelle Datenkopie benötigt nur einen Bruchteil des Speicherplatzes der physischen Version. Aus 10 TByte Produktivdaten wird beispielsweise ein Data Pod von nur 10 GByte. Dadurch verschlanken sich Entwicklungs- und Testumgebungen oft bis auf ein Drittel. Entwickler arbeiten zudem produktiver, weil sie nicht mehr bis zu 50 Prozent ihrer Arbeitszeit mit Verwaltungsprozessen verschwenden. Der Nutzer kontrolliert seine Data Pods effizienter über eine Self-Service-Funktion. Zudem stehen Entwicklern DevOps-Werkzeuge zur Verfügung, mit denen sich ihre Aufgaben und Prozesse automatisieren lassen. Dank Datenvirtualisierung- und Deduplizierungstechnik beschleunigt eine DataOps-Plattform auch die Datenübertragung, wodurch eine Cloud-Migration bis zu 50 Prozent schneller abläuft.

DataOps - so funktioniert's
Eine DataOps-Lösung lässt sich auf allen gängigen Hypervisors installieren. Standardschnittstellen binden Datenbanken wie Oracle, SQL Server, DB2, mySQL oder Sybase, aber auch Applikationen als Datenquellen ein. Von diesen Daten und Applikationen wird eine komprimierte Kopie erstellt, die ständig inkrementell mit der Datenbasis synchronisiert wird. Es werden also nur die Änderungen an den Datenquellen selbst in die Datenkopie übertragen.

Die komprimierten Kopien, auch "Data Pods" genannt, lassen sich in beliebiger Menge erstellen und können so für Entwickler, Tester oder Datenanalysten bereitgestellt werden. Individuelle Self-Service-Zugänge ermöglichen es Administratoren Zugriffsrechte festzulegen und die entsprechend benötigten Datensätze freizugeben. Somit lässt sich die nötige Kontrolle durch Daten-Administratoren mit der schnellen Bereitstellung von Daten für agiles Entwickeln und Testing in Einklang bringen. DataOps-Plattformen lassen sich sowohl in Unternehmensrechenzentren, in Public oder auch Hybrid-Clouds betreiben. (Delphix: ra)

eingetragen: 04.03.18
Newsletterlauf: 13.04.18

Delphix: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Hintergrund

  • Alles richtet sich nach der Multi-Cloud

    Die Cloud ist für viele Unternehmen heute selbstverständlicher Teil ihres Betriebs. Entsprechend entwickeln sich die individuellen Anforderungen der Unternehmen stetig weiter. Immer mehr von ihnen suchen professionelle Cloud-Berater, anpassbare Services und Multi-Cloud-Technologien. Dieses Angebot leisten Cloud Service Provider der nächsten Generation - sie halten mit dem schnell wachsenden Cloud-Ökosystem und den neuen Kundenanforderungen Schritt. Lee James, CTO EMEA bei dem Next-Gen-Cloud-Service Provider Rackspace, beobachtet genau, wie sich die Cloud-Branche verändert - und verrät Ihnen seine Prognose für die Cloud- und Technologie-Trends 2019.

  • Backup und Disaster Recovery

    Der Storage-Markt ist in Bewegung. In der Einschätzung von Arcserve werden vor allem drei Trends den Markt für Backup und Disaster Recovery bestimmen: Kostenprobleme in der Public Cloud, künstliche Intelligenz und sich selbst verwaltende Service-Dienstleistungen. Die Komplexität von IT-Infrastrukturen und neue Cloud-Technologien werden Hersteller, den Channel und die Kunden zusätzlich vor neue Herausforderungen stellen. 2018 war vor allem von anspruchsvolleren Ransomware-Attacken und von der neuen Datensicherungsregelung der DSGVO bestimmt. Viele Cloud-First-Sicherungsstrategien endeten in unerwartet hohen Kosten und einem erhöhten Datenverlust-Risiko. Arcserve sieht die Verantwortlichen und den Markt für Datensicherung und -Wiederherstellungen vor den folgenden Herausforderungen.

  • IT-übergreifende Automatisierungsstrategie

    Laut Schätzung des Marktanalysten Gartner werden CIOs bis 2023 mehr als das Dreifache der Endgeräte verantworten, als sie aktuell verwalten. Ohne technologische Unterstützung werden sie diese Aufgabe auf Dauer kaum bewältigen können. Doch welche Technologiethemen sollten CIOs 2019 im Blick behalten, wenn es um die Vereinheitlichung des IT-Betriebs und den Abbau von Silos geht? Ivanti hat vier Fokusbereiche im IT-Servicemanagement identifiziert: Künstliche Intelligenz unterstützt ITSM-Prozesse Maschinelles Lernen und Künstliche Intelligenz (KI) finden in den kommenden fünf Jahren einen großflächigen Eingang in das ITSM. Artificially Intelligent Service Management (AISM) wird dabei im ersten Schritt das traditionelle Service Management ergänzen. Die zentralen Stärken für KI liegen im Incident und Request Management, indem sie Vorfälle und Anfragen interpretiert, bevor diese in das traditionelle IT-Servicemanagement eingesteuert werden.

  • IoT in Supply-Chain-Initiativen und Logistik

    Um es mit den Worten des britischen Schriftstellers Douglas Adams zu sagen: Das Internet der Dinge ist groß. Wirklich groß. Sie mögen denken, dass die Datenmenge, mit der Sie in Ihrem Unternehmen zu tun haben riesig ist - denn laut der IDG IoT Studie 2018 hat bereits ein Fünftel der befragten Unternehmen IoT-Projekte umgesetzt. In Wahrheit aber sind das nur Peanuts im Vergleich zu dem Volumen an Daten, das von vernetzten Fahrzeugen und IoT-fähigen Lieferketten erzeugt wird. Ganz zu schweigen von der Vielfalt an Datentypen und der Geschwindigkeit, mit der sie generiert werden. Dass der Umgang mit diesen Daten eine große Herausforderung ist, liegt auf der Hand. Was gilt es also zu beachten?

  • Beginn der Petabyte-Ära

    Neue Technologien und wirtschaftliche Interessen verändern die IT und damit auch die Anforderungen an die Datenspeicherung und -sicherheit. Für das kommende Jahr lassen sich schon heute vier grundlegende Trends identifizieren. Früher war die Datenverwaltung im Petabyte-Format eine Herausforderung, der sich nur große Unternehmen stellen mussten. Mit der Verzehnfachung der Datenmenge (laut IDC) beginnt die Petabyte-Ära jetzt auch für mittelständische Unternehmen. Was früher eine Ausnahme war, wird sich zum Standard für KMU entwickeln, denn mittelständische Unternehmen erleben gerade schmerzhaft, dass ihre IT-Architektur für dieses Datenwachstum nicht ausgelegt ist.

  • Datenvirtualisierung, KI und Cloud

    Denodo, ein Unternehmen im Bereich der Datenvirtualisierung, hat für das Jahr 2019 drei Top-Tech-Trends identifiziert. Neben Künstlicher Intelligenz und modernen Datenvirtualisierungs-Tools wird sich auch die Cloud neu erfinden. Maschinelles Lernen für Unternehmen ein Muss: Auf KI-gestützte Analytik wird noch weiter an Bedeutung gewinnen, da immer mehr Tools entwickelt werden, die die Nutzung von KI-Techniken in allen Anwendungsbereichen erleichtern und Hürden abbauen. Die Ergebnisse dieser Techniken sind jedoch nur so gut wie die Daten, die damit verarbeitet werden. Da Data Scientists bereits jetzt mehr als 80 Prozent ihrer Zeit mit der Ermittlung, Integration und Aufbereitung von Daten verbringen, wird auch die Nachfrage nach Technologien für die Datenbereitstellung deutlich steigen. Als Schlüsselfaktor wird sich hier die Datenvirtualisierung weiter etablieren, die alle relevanten Daten für sämtliche im Unternehmen verwendeten Applikationen in dem jeweils benötigten Format bereitstellen kann und damit wesentlich zur Produktivität von Data Scientiest beitragen wird.

  • In der Cloud nach neuen Möglichkeiten suchen

    Eine Prognose, die für das Jahr 2019 sicher ist, ist das Cyberkriminelle immer innovative Wege beim Ausnutzen von Sicherheitslücken finden werden. Hacker haben weiterhin IoT-Geräte auf ihrem Radar, und sie werden in der Cloud nach neuen Möglichkeiten suchen, um gefährdete Anwendungen anzugreifen. Die Verteidiger müssen daran arbeiten, effektivere Sicherheitslösungen zu finden, die das Budget nicht überfordern. Hier lesen Sie die Zscaler-Vorhersagen für die wichtigsten Sicherheitstrends für das kommende Jahr. Angriffe auf bestimmte Cloud-Anwendungen werden zunehmen. Da immer mehr Unternehmen Workloads und Daten auf Anwendungen wie Office 365 und Workday verlagern, werden Hacker neue Angriffe speziell für diese Anwendungen entwickeln. Sie werden spezielle Exploits verwenden, um Zugriff auf die Anwendung selbst zu erhalten und nicht nur auf die Benutzerdaten.

  • Die digitalen Business-Trends im Jahr 2019

    Intelligent Enterprise, Fokus auf Datenqualität, Agile Business: nachdem der Mehrwert der Digitalisierung in allen Branchen angekommen ist, steht das Jahr 2019 ganz im Zeichen der Integration von einzelnen Trends in ganzheitliche und übergreifende Lösungen. Arithnea zeigt, was Unternehmen im digitalen Business im Jahr 2019 erwarten wird. Agile Business Development: Unternehmen müssen noch schneller auf Veränderungen im Markt reagieren. Heute bleibt keine Zeit mehr, langjährige Pläne für strategische Initiativen zu entwickeln, die bis zur tatsächlichen Umsetzung schon wieder überholt sind. Der Trend geht daher immer mehr dazu über, mehrere kleinere und vor allem kostengünstigere Projekte als eine Art Testballon zu starten - agile Business Development ist hier das Keyword.

  • Die nächste DevOps-Welle wird kommen

    Immer mehr Entwickler nutzen Microservices für die Erstellung neuer Apps. Mit deren Hilfe können sie spezifische und auf ihre Anforderungen angepasste Komponenten nutzen, die ihren Job sehr gut erledigen. Sind sie erfolgreich, lassen sie sich schnell und problemlos skalieren. Allerdings erzeugen all diese Komponenten natürlich Daten. Und bei zustandslosen (stateless) Anwendungskomponenten muss man die Daten irgendwo ablegen. Eine Möglichkeit besteht darin, zustandsbehaftete (stateful) Container-Instanzen zu nutzen, die im Zeitverlauf Daten speichern können. Wenn Sie mich fragen, holt diese Lösung aber nicht das Beste aus den Containern oder den Daten heraus. Stattdessen ist es viel sinnvoller, eine Datenbank zu betreiben. Im kommenden Jahr gilt es daher, besser zu verstehen, wie Datenbanken die spezifischen Anforderungen von Anwendungen erfüllen können. Und dies insbesondere so, dass bestehende Applikationen nicht neu geschrieben werden müssen.

  • ERP-Trends: Was 2019 wichtig ist

    Viele Mittelständler in Deutschland, Österreich und der Schweiz haben sich den Ausbau ihrer ERP-Lösung vorgenommen. Welche Themen sollten ERP-Verantwortliche dabei für 2019 auf dem Radar haben? Der ERP-Hersteller proALPHA hat aus zahlreichen Studien und einer Vielzahl von Kundengesprächen sieben Fokusthemen identifiziert. Um dem rasanten Wandel der Märkte zu begegnen, passen Unternehmen ihre Geschäftsprozesse laufend an. Die Zahl der Betriebe, die dafür auch ihr ERP-System erweitern, steigt ebenfalls: 62 Prozent planen, ihre ERP-Software in den kommenden 2 Jahren um zusätzliche Funktionalitäten zu erweitern, so eine Studie von PAC. Dabei nehmen sich Mittelständler aus Fertigung und Handel für das kommende Jahr insbesondere sieben Themen vor.