- Anzeige -


Sie sind hier: Startseite » Markt » Hintergrund

Cloud-Migration bis zu 50 Prozent schneller


DataOps und die Entwicklung digitaler Angebote: Mit virtuellen Datenumgebungen ist der Erfolg vorprogrammiert
Fünf Gründe, warum die DataOps-Technologie die Software-Entwicklung heute und künftig beschleunigt

- Anzeigen -





Von Minas Botzoglou, Regional Director DACH bei Delphix

Das zügige Umsetzen von innovativen Ideen in digitale Angebote ist erfolgsentscheidend. Dies setzt allerdings voraus, dass Software-Entwicklern und -Testern Daten in der erforderlichen Güte und Schnelligkeit bereitstehen. Zudem gilt es, die Informationsbestände abzusichern und parallel eine Maskierung sensibler Daten durchzuführen. Dieses Anforderungsprofil erfüllt die DataOps-Technologie, die Datenbanken, Applikationen und Dateisysteme auf einfache Weise virtualisiert. Minas Botzoglou, Regional Director DACH bei Delphix, nennt die fünf wichtigsten Gründe, weshalb DataOps bereits heute unverzichtbar für jedes Unternehmen ist, das sich ernsthaft mit der Digitalisierung auseinandersetzt.

1. Überzeugende Datenqualität
DataOps-Lösungen erzeugen "Data Pods". Das sind virtuelle Datenumgebungen, die auf Produktivdaten basieren und Software-Entwicklung unter "realen" Bedingungen ermöglichen. In der Praxis kommen jedoch häufig synthetische Daten zum Einsatz, weil es für Unternehmen zu kompliziert, zu risikoreich, zu teuer und zu zeitaufwändig ist, zig Terabyte Daten von einem Produktivsystem zu kopieren und in eine Entwicklungsumgebung oder auf ein Testsystem zu transferieren. Künstliche Datensätze haben allerdings ein wesentliches Manko: Eine Entwicklung ohne reelle Datenbasis wirkt sich negativ auf die Präzision und die Qualität neuer Applikationen aus. DataOps hingegen automatisiert die Datenaktualisierung aus der Produktion, sodass Tests mit realen und zuverlässigen Daten erfolgen.

2. Beachtliches Bereitstellungstempo
Mithilfe einer DataOps-Plattform lassen sich für Entwickler, Testfachleute und Big Data-Spezialisten innerhalb von Minuten Data Pods auf Basis der Produktivdaten bereitstellen. Ein aufwändiges Hochfahren von voluminösen Test- und Entwicklungsumgebungen ist nicht erforderlich. Beim Verwenden von physischen Datenkopien dauert es mehrere Stunden oder gar Tage bis große Datenbestände zur Verfügung stehen. So gaben die Befragten einer Delphix-Studie an, dass es im Schnitt dreieinhalb Tage dauert, bis eine Test-Umgebung zur Verfügung steht.(1)

3. Multiple virtuelle Datenumgebungen auf einen Klick
DataOps-Technologien sind fähig, Datenbanken und Anwendungen sofort zu installieren oder wiederherzustellen – ungeachtet der Größe des Datensatzes. Nutzer von DataOps-Plattformen haben damit die Option, so viele Kopien der Datenbestände wie nötig zu erstellen und für spezielle Analysen zu verwenden. Das ist beispielsweise für das Aufspüren von Bugs, bei Auswertungen und für Tests sinnvoll. Zudem lassen sich separate Ausgaben für unterschiedliche Versionen einer Applikation einrichten. Ein Entwickler kann bei Bedarf Data Pods zeitweise stilllegen und wieder aktivieren oder auch zwischen verschiedenen Data Pods hin und her wechseln.

4. Integrierter Datenschutz durch Datenmaskierung
Die EU-Datenschutzgrundverordnung (DSGVO), die für alle Unternehmen ab 25. Mai 2018 verbindlich ist, schränkt das Verwenden personenbezogener Daten ein. Denn die DGVO fordert vom datenverarbeitenden Unternehmen, die personenbezogenen Angaben nachweislich zu anonymisieren oder pseudonymisieren. Das ist vor allem in der Software-Entwicklung kritisch, da oft eine Vielzahl von Daten ungeschützt auf unterschiedlichen Entwicklungs- und Testumgebungen abliegt.

Auch wenn externe Entwickler Zugriff auf Unternehmensdaten benötigen, wird dies zur Herausforderung. Das "Maskieren" personenbezogener Informationen ist eine sichere Möglichkeit, um Daten irreversibel zu anonymisieren. Dadurch lassen sich keine Rückschlüsse auf die Identität von Personen schließen. Gleichzeitig werden die sensitiven Daten mit fiktiven, aber realistischen Beständen ersetzt, welche das Entwickeln unter realen Bedingungen gewährleistet. Eine ausgereifte DataOps-Lösung verfügt dabei über Instrumente oder Schnittstellen zu Tools und Skripten von Drittanbietern, um eine gesetzeskonforme Datenmaskierung zu automatisieren.

5. Niedriger Speicherplatzbedarf, höhere Effizienz
Jede virtuelle Datenkopie benötigt nur einen Bruchteil des Speicherplatzes der physischen Version. Aus 10 TByte Produktivdaten wird beispielsweise ein Data Pod von nur 10 GByte. Dadurch verschlanken sich Entwicklungs- und Testumgebungen oft bis auf ein Drittel. Entwickler arbeiten zudem produktiver, weil sie nicht mehr bis zu 50 Prozent ihrer Arbeitszeit mit Verwaltungsprozessen verschwenden. Der Nutzer kontrolliert seine Data Pods effizienter über eine Self-Service-Funktion. Zudem stehen Entwicklern DevOps-Werkzeuge zur Verfügung, mit denen sich ihre Aufgaben und Prozesse automatisieren lassen. Dank Datenvirtualisierung- und Deduplizierungstechnik beschleunigt eine DataOps-Plattform auch die Datenübertragung, wodurch eine Cloud-Migration bis zu 50 Prozent schneller abläuft.

DataOps - so funktioniert's
Eine DataOps-Lösung lässt sich auf allen gängigen Hypervisors installieren. Standardschnittstellen binden Datenbanken wie Oracle, SQL Server, DB2, mySQL oder Sybase, aber auch Applikationen als Datenquellen ein. Von diesen Daten und Applikationen wird eine komprimierte Kopie erstellt, die ständig inkrementell mit der Datenbasis synchronisiert wird. Es werden also nur die Änderungen an den Datenquellen selbst in die Datenkopie übertragen.

Die komprimierten Kopien, auch "Data Pods" genannt, lassen sich in beliebiger Menge erstellen und können so für Entwickler, Tester oder Datenanalysten bereitgestellt werden. Individuelle Self-Service-Zugänge ermöglichen es Administratoren Zugriffsrechte festzulegen und die entsprechend benötigten Datensätze freizugeben. Somit lässt sich die nötige Kontrolle durch Daten-Administratoren mit der schnellen Bereitstellung von Daten für agiles Entwickeln und Testing in Einklang bringen. DataOps-Plattformen lassen sich sowohl in Unternehmensrechenzentren, in Public oder auch Hybrid-Clouds betreiben. (Delphix: ra)

eingetragen: 04.03.18
Newsletterlauf: 13.04.18

Delphix: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Hintergrund

  • Compliance Automation & Configuration Automation

    Automation ist der entscheidende Faktor, der den Cloud Computing-Erfolg sichert, meint NTT Security, das auf Sicherheit spezialisierte Unternehmen und "Security Center of Excellence" der NTT Group. Zwei Komponenten sind dabei ein Muss: die Compliance Automation und die Continuous Configuration Automation. NTT Security unterstützt Unternehmen bei der Realisierung von Automationsprojekten mit umfassendem Consulting. Immer mehr Unternehmen gehen in die Cloud, gerade die Nutzung von Infrastructure-as-a-Service (IaaS)-Angeboten liegt im Trend. Dabei wird nach Meinung von NTT Security vielfach übersehen, dass ein erfolgreiches IaaS-Deployment Automation voraussetzt, weil nur so das in der Cloud unerlässliche Sicherheitsniveau dauerhaft bereitgestellt werden kann.

  • SAP in der Cloud

    Als zentrales Nervensystem vieler Unternehmen partizipiert SAP unmittelbar an fast allen grundlegenden Umwälzungen, die sich derzeit in der Business-IT abspielen. Als SAP-Partnerin der ersten Stunde begleitet Freudenberg IT (FIT) seine Kunden auf diesem Weg - und erhält damit tiefe Einblicke darüber, was Unternehmen in Sachen SAP gerade bewegt. Aus FIT Perspektive sind das derzeit vor allem drei zentrale Themen.

  • Neuer Trend: Serverless Computing

    Die Entwicklung des Serverless-Konzeptes lässt sich mit einem Blick auf die Erfolgsgeschichte der Cloud aufzeigen. So gibt es das Cloud-Computing-Konzept schon seit einiger Zeit, aber erst mit dem Aufkommen virtueller Maschinen und der Einführung von Amazon Elastic Compute wurden Cloud-Services ab 2006 wirklich für alle Unternehmen nutzbar. Im Jahr 2008 folgte Google mit der Google App Engine, 2010 kam Microsoft Azure auf den Markt. Anfangs unterschieden sich die Angebote gar nicht so sehr voneinander. Doch wie in fast jedem Markt folgte dem Wachstum rasch eine Zersplitterung. In den letzten Jahren ist der Markt für Cloud Computing so stark gewachsen, dass es sich für die Anbieter mittlerweile lohnt, spezifischere Angebote zu entwickeln, denn sie können sich darauf verlassen, einen relevanten Markt vorzufinden. Cloud-Anbieter haben bei ihren Angeboten und den darin unterstützten Funktionen wie zum Beispiel KI, Machine Learning, Streaming, Batch usw. auf eine immer stärkere Differenzierung gesetzt.

  • Wettbewerbsvorteile durch guten Service

    Was macht guten Service in Zeiten des digitalen Wandels aus? Und wie können Unternehmen diesen bieten? Fragen, mit denen sich derzeit zahlreiche Manager auseinandersetzen. Denn durch die Digitalisierung gelangen stetig neue Technologien auf den Markt, die Geschäftsprozesse, Kunden, Mitarbeiter und Services beeinflussen. "Manager sind angehalten, auf die Herausforderungen einzugehen und die Weichen zu stellen", weiß Martin Beims, geschäftsführender Gesellschafter der Aretas GmbH. "Elementar ist dabei die Gestaltung entsprechender Bedingungen und Prozesse für Menschen, statt sie in bestehende Systeme und Lösungen aus der Literatur zu zwängen. Dafür müssen die Verantwortlichen vor allem eines berücksichtigen: Emotionen."

  • Cloud beim Identitätsmanagement

    HID Global sieht eine steigende Nutzung der Cloud beim Identitätsmanagement. Gründe sind eine einfachere Bereitstellung, größere Flexibilität und niedrigere Kosten. Cloud-basierte Plattformen sind inzwischen das Backbone vieler neuer Technologien und optimieren künftig auch die Bereitstellung von Identitätslösungen. Sie bieten Unternehmen eine größere Flexibilität hinsichtlich Upgrade und Skalierung ihrer Sicherheitsinfrastruktur und die Möglichkeit, neue kosteneffizientere Managed-Service-Modelle einzuführen. Vor allem Cloud-basierte integrierte Management-Plattformen werden für digitale IDs eine vorrangige Rolle spielen. Für Administratoren wird es dadurch wesentlich einfacher, ein integriertes System bereitzustellen und zu verwalten - und zwar während des kompletten Identity-Lifecycles von der Zuweisung bis zur Löschung eines Accounts. Zugangsrechte von Mitarbeitern können einfach verwaltet, überwacht und flexibel an deren jeweilige Rolle im Unternehmen angepasst werden.

  • Die passende Cloud macht den Unterschied

    Ziel der Richtlinie 2016/943 ist ein einheitlicher Mindestschutz für Geschäftsgeheimnisse in Europa - doch was ändert sich damit? Und was hat die Wahl eines sicheren Cloud Computing-Dienstes damit zu tun? Die Richtlinie definiert unter anderem den Begriff des Geschäftsgeheimnisses sowie die wesentlichen Dreh- und Angelpunkte des Geheimnisschutzes; außerdem listet sie erlaubte Handlungen sowie Handlungsverbote auf. Eine der schwerwiegendsten Neuerungen dürfte sein, dass Geschäftsgeheimnisse nur noch dann als geschützt gelten, wenn angemessene Geheimhaltungsmaßnahmen getroffen wurden. In Betracht kommen dabei sowohl technische Zugangsbeschränkungen und Vorkehrungen als auch vertragliche Sicherungsmechanismen; die Beweislast liegt dabei beim Geheimnisinhaber.

  • Verschlüsselung: Komplex und kompliziert?

    Obwohl Verschlüsselung als eine der wichtigsten Technologien zum Schutz von Daten und Anwendungen gesehen wird gilt sie traditionell als komplex. Besonders die Implementierung in bestehende, fragile Umgebungen hat den Ruf schwierig zu sein. Dazu kommen unklare Abteilungszuständigkeiten, zu wenig spezialisiertes Personal und die Angst, dass sich eine umfassende Verschlüsselungslösung negativ auf die Leistung der Systeme auswirkt. Nicht zuletzt befürchten die Verantwortlichen, dass sie Insellösungen produzieren, und kein Konzern will mit verschiedenen Verschlüsselungslösungen jonglieren müssen.

  • Mobile Sofortnetze im Katastrophenfall

    5G, die nächste Mobilfunkgeneration, steht auf der Türschwelle. Aktuell werden LTE-Mobilfunknetze auf der ganzen Welt mit neuen Frequenzbändern und fortschrittlichen Funktechnologien, etwa "LTE-Narrowband-IoT", aufgerüstet. Die kommerzielle Nutzung von 5G-Technologien wird bereits erprobt, in Deutschland etwa an der A9 durch ein großangelegtes Projekt zum autonomen Fahren, an dem sich Autohersteller, Netzwerkausrüster und die Deutsche Bahn beteiligen. Eine breite kommerzielle Verfügbarkeit erster 5G-basierter Anwendungen ist für 2020 vorgesehen.

  • Zeitgemäßes ITSM in der VUCA-Welt

    An agilen Prozessen gibt es kein Vorbeikommen mehr. Doch sind die alt hergebrachten Methoden aus dem IT-Service-Management (ITSM) überhaupt noch in der Lage, Unternehmen im Zeitalter der Agilität adäquat zu unterstützen? Oder hat klassisches ITSM ausgedient? Flüchtigkeit, Ungewissheit, Komplexität und Mehrdeutigkeit (englisch kurz VUCA) - diese Begriffe beschreiben die heutige Welt und die Lage von Unternehmen sehr treffend. Für die IT bedeutet diese Situation, dass neben Stabilität, Sicherheit und Zuverlässigkeit eine hohe Veränderungsgeschwindigkeit erwartet wird. Es reicht nicht mehr, zuverlässige Produkte zu verkaufen, um sich von den neuen Massenmärkten zu differenzieren. Letztlich gibt es daher kein Vorbeikommen mehr an agilen Prozessen: Nach der IT-Entwicklungsabteilung hat die Welle der Agilität schon lange auch das IT-Service-Management (ITSM) erreicht.

  • Hochtechnologie aus der Cloud

    Die Zielsetzung des EU-Projekts "CloudiFacturing" ist, Produktionsprozesse über einen digitalen Marktplatz zu optimieren. Das Projekt richtet sich an kleine und mittelständische Unternehmen (KMU). Diesen wird hochmoderne und komplexe Modellierungs- und Simulationssoftware über die Cloud zur Verfügung gestellt. "Angesichts der Tatsache, dass weniger als 25 Prozent der KMU in Europa moderne Informations- und Kommunikationstechnologie einsetzen, hat das aktuelle Projekt ein klares politisches Ziel. "Cloudification-Dienste" werden zum Wegbereiter für die Digitalisierung der Fertigungsindustrie", so Prof. Dr.-Ing. André Stork, Abteilungsleiter Interaktive Engineering Technologien vom Fraunhofer-Institut für Graphische Datenverarbeitung IGD, das die Führung und Koordination des Projekts innehat.