- Anzeige -


Sie sind hier: Startseite » Markt » Hintergrund

Cloud-Migration bis zu 50 Prozent schneller


DataOps und die Entwicklung digitaler Angebote: Mit virtuellen Datenumgebungen ist der Erfolg vorprogrammiert
Fünf Gründe, warum die DataOps-Technologie die Software-Entwicklung heute und künftig beschleunigt

- Anzeigen -





Von Minas Botzoglou, Regional Director DACH bei Delphix

Das zügige Umsetzen von innovativen Ideen in digitale Angebote ist erfolgsentscheidend. Dies setzt allerdings voraus, dass Software-Entwicklern und -Testern Daten in der erforderlichen Güte und Schnelligkeit bereitstehen. Zudem gilt es, die Informationsbestände abzusichern und parallel eine Maskierung sensibler Daten durchzuführen. Dieses Anforderungsprofil erfüllt die DataOps-Technologie, die Datenbanken, Applikationen und Dateisysteme auf einfache Weise virtualisiert. Minas Botzoglou, Regional Director DACH bei Delphix, nennt die fünf wichtigsten Gründe, weshalb DataOps bereits heute unverzichtbar für jedes Unternehmen ist, das sich ernsthaft mit der Digitalisierung auseinandersetzt.

1. Überzeugende Datenqualität
DataOps-Lösungen erzeugen "Data Pods". Das sind virtuelle Datenumgebungen, die auf Produktivdaten basieren und Software-Entwicklung unter "realen" Bedingungen ermöglichen. In der Praxis kommen jedoch häufig synthetische Daten zum Einsatz, weil es für Unternehmen zu kompliziert, zu risikoreich, zu teuer und zu zeitaufwändig ist, zig Terabyte Daten von einem Produktivsystem zu kopieren und in eine Entwicklungsumgebung oder auf ein Testsystem zu transferieren. Künstliche Datensätze haben allerdings ein wesentliches Manko: Eine Entwicklung ohne reelle Datenbasis wirkt sich negativ auf die Präzision und die Qualität neuer Applikationen aus. DataOps hingegen automatisiert die Datenaktualisierung aus der Produktion, sodass Tests mit realen und zuverlässigen Daten erfolgen.

2. Beachtliches Bereitstellungstempo
Mithilfe einer DataOps-Plattform lassen sich für Entwickler, Testfachleute und Big Data-Spezialisten innerhalb von Minuten Data Pods auf Basis der Produktivdaten bereitstellen. Ein aufwändiges Hochfahren von voluminösen Test- und Entwicklungsumgebungen ist nicht erforderlich. Beim Verwenden von physischen Datenkopien dauert es mehrere Stunden oder gar Tage bis große Datenbestände zur Verfügung stehen. So gaben die Befragten einer Delphix-Studie an, dass es im Schnitt dreieinhalb Tage dauert, bis eine Test-Umgebung zur Verfügung steht.(1)

3. Multiple virtuelle Datenumgebungen auf einen Klick
DataOps-Technologien sind fähig, Datenbanken und Anwendungen sofort zu installieren oder wiederherzustellen – ungeachtet der Größe des Datensatzes. Nutzer von DataOps-Plattformen haben damit die Option, so viele Kopien der Datenbestände wie nötig zu erstellen und für spezielle Analysen zu verwenden. Das ist beispielsweise für das Aufspüren von Bugs, bei Auswertungen und für Tests sinnvoll. Zudem lassen sich separate Ausgaben für unterschiedliche Versionen einer Applikation einrichten. Ein Entwickler kann bei Bedarf Data Pods zeitweise stilllegen und wieder aktivieren oder auch zwischen verschiedenen Data Pods hin und her wechseln.

4. Integrierter Datenschutz durch Datenmaskierung
Die EU-Datenschutzgrundverordnung (DSGVO), die für alle Unternehmen ab 25. Mai 2018 verbindlich ist, schränkt das Verwenden personenbezogener Daten ein. Denn die DGVO fordert vom datenverarbeitenden Unternehmen, die personenbezogenen Angaben nachweislich zu anonymisieren oder pseudonymisieren. Das ist vor allem in der Software-Entwicklung kritisch, da oft eine Vielzahl von Daten ungeschützt auf unterschiedlichen Entwicklungs- und Testumgebungen abliegt.

Auch wenn externe Entwickler Zugriff auf Unternehmensdaten benötigen, wird dies zur Herausforderung. Das "Maskieren" personenbezogener Informationen ist eine sichere Möglichkeit, um Daten irreversibel zu anonymisieren. Dadurch lassen sich keine Rückschlüsse auf die Identität von Personen schließen. Gleichzeitig werden die sensitiven Daten mit fiktiven, aber realistischen Beständen ersetzt, welche das Entwickeln unter realen Bedingungen gewährleistet. Eine ausgereifte DataOps-Lösung verfügt dabei über Instrumente oder Schnittstellen zu Tools und Skripten von Drittanbietern, um eine gesetzeskonforme Datenmaskierung zu automatisieren.

5. Niedriger Speicherplatzbedarf, höhere Effizienz
Jede virtuelle Datenkopie benötigt nur einen Bruchteil des Speicherplatzes der physischen Version. Aus 10 TByte Produktivdaten wird beispielsweise ein Data Pod von nur 10 GByte. Dadurch verschlanken sich Entwicklungs- und Testumgebungen oft bis auf ein Drittel. Entwickler arbeiten zudem produktiver, weil sie nicht mehr bis zu 50 Prozent ihrer Arbeitszeit mit Verwaltungsprozessen verschwenden. Der Nutzer kontrolliert seine Data Pods effizienter über eine Self-Service-Funktion. Zudem stehen Entwicklern DevOps-Werkzeuge zur Verfügung, mit denen sich ihre Aufgaben und Prozesse automatisieren lassen. Dank Datenvirtualisierung- und Deduplizierungstechnik beschleunigt eine DataOps-Plattform auch die Datenübertragung, wodurch eine Cloud-Migration bis zu 50 Prozent schneller abläuft.

DataOps - so funktioniert's
Eine DataOps-Lösung lässt sich auf allen gängigen Hypervisors installieren. Standardschnittstellen binden Datenbanken wie Oracle, SQL Server, DB2, mySQL oder Sybase, aber auch Applikationen als Datenquellen ein. Von diesen Daten und Applikationen wird eine komprimierte Kopie erstellt, die ständig inkrementell mit der Datenbasis synchronisiert wird. Es werden also nur die Änderungen an den Datenquellen selbst in die Datenkopie übertragen.

Die komprimierten Kopien, auch "Data Pods" genannt, lassen sich in beliebiger Menge erstellen und können so für Entwickler, Tester oder Datenanalysten bereitgestellt werden. Individuelle Self-Service-Zugänge ermöglichen es Administratoren Zugriffsrechte festzulegen und die entsprechend benötigten Datensätze freizugeben. Somit lässt sich die nötige Kontrolle durch Daten-Administratoren mit der schnellen Bereitstellung von Daten für agiles Entwickeln und Testing in Einklang bringen. DataOps-Plattformen lassen sich sowohl in Unternehmensrechenzentren, in Public oder auch Hybrid-Clouds betreiben. (Delphix: ra)

eingetragen: 04.03.18
Newsletterlauf: 13.04.18

Delphix: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Hintergrund

  • Im ITSM hat sich ITIL zum Standard entwickelt

    Es gibt kein Vorbeikommen mehr an agilen Prozessen: Das Thema beschäftigt die deutschen Unternehmen gleichermaßen wie die internationalen. Nach der IT-Entwicklungsabteilung hat die Welle der Agilität schon lange auch das IT-Service-Management (ITSM) erreicht.[1] Dabei dreht sich alles um die Idee, Prozesse zu verschlanken, Bereitstellungsszyklen zu verkürzen, flexibler in der Leistungserbringung zu sein und schneller auf veränderte Anforderungen im Markt reagieren zu können. Vermehrt stellt sich daher die Frage, ob die traditionellen ITSM-Methoden noch mithalten können und in der Lage sind, die neuen Aufgaben zu erfüllen. "Regelwerke wie COBIT, ITIL und Co. werden häufig als starre Rezeptbücher missverstanden. So machen sich die Verantwortlichen jedoch letztlich zur Geisel dieser Standards und verschließen sich vor agilen Prozessen", erläutert Martin Beims, geschäftsführender Gesellschafter der aretas GmbH. Eine zu enge Ausrichtung auf Standards kann den individuellen Anforderungen der Unternehmen oft nicht gerecht werden. Stehen die klassischen ITSM-Methoden im Widerspruch zur Agilität? Oder ist beides vereinbar?

  • Riverbed stellt Channel-Prognosen vor

    Ein Blick auf 2018 und die Jahre danach zeigt: Es sind aufregende Zeiten für den Channel. Die rasanten technologischen Fortschritte verändern die Art und Weise, wie Partner Technologien positionieren, verkaufen und unterstützen. Es findet ein Wandel statt, der Kundenerwartungen, Geschäftsmodelle, Sales-Prozesse und Zertifizierungsmodelle nachhaltig beeinflusst. Für die Branche sind das gute Aussichten, weil der Fokus nun auf Kundenerfolg und Customer-Lifetime-Value liegt. Die Technologie entwickelt sich so schnell weiter, dass Kunden nicht mehr mithalten können. Sie müssen einen anderen Weg finden, um mit Technologie umzugehen, und können sechsmonatige Beschaffungszyklen oder zwölfmonatige Implementierungsphasen nicht mehr akzeptieren.

  • Cloud-Migration bis zu 50 Prozent schneller

    Das zügige Umsetzen von innovativen Ideen in digitale Angebote ist erfolgsentscheidend. Dies setzt allerdings voraus, dass Software-Entwicklern und -Testern Daten in der erforderlichen Güte und Schnelligkeit bereitstehen. Zudem gilt es, die Informationsbestände abzusichern und parallel eine Maskierung sensibler Daten durchzuführen. Dieses Anforderungsprofil erfüllt die DataOps-Technologie, die Datenbanken, Applikationen und Dateisysteme auf einfache Weise virtualisiert. Minas Botzoglou, Regional Director DACH bei Delphix, nennt die fünf wichtigsten Gründe, weshalb DataOps bereits heute unverzichtbar für jedes Unternehmen ist, das sich ernsthaft mit der Digitalisierung auseinandersetzt.

  • DevOps in der Praxis umgesetzt

    - Neue Technologien haben es zu Beginn oft schwer. Frühen Anwendern stehen wie immer eine Vielzahl Zweifler entgegen. Fast vergessen sind heute die Schwierigkeiten die VMware mit der Akzeptanz seines Virtualisierungskonzepts in den frühen Jahren hatte, das erst nach einigen Jahren an Wichtigkeit zunahm und heute eine zentrale Bedeutung in der IT spielt. Eine ähnliche Entwicklung scheint momentan DevOps zu widerfahren. Seit einigen Jahren spricht man über die Technologie, doch sie ist längst noch nicht überall angekommen. Aber die Bereitschaft DevOps einzusetzen steigt kontinuierlich und lässt sich den Markt eindeutig nach oben entwickeln.

  • Cloud-basierte Angebote für kommerzielle Nutzung

    "Das Wissen der Welt ist heute nur wenige Mausklicks entfernt. Dies erleben nicht nur Privatnutzer und Mitarbeiter, die Suchanfragen in Google eingeben, sondern auch Unternehmen und öffentliche Institutionen. Im Zuge der umfassenden Vernetzung und Digitalisierung entstehen so viele Daten, dass sie diese kaum noch bearbeiten können. Doch inzwischen stehen Lösungen zur Big Data-Analyse bereit, die innovative Organisationen einsetzen können, um völlig neue Geschäftsprozesse, Services und Anwendungen anzubieten.

  • Unternehmen nutzen die Vorteile der Cloud

    HID Global hat die wichtigsten Trends im Jahr 2018 im Bereich Identity-Technologie identifiziert. Die Anbieterin von sicheren Identitätslösungen weist dabei auf einen verstärkten Einsatz von Zugriffen via Cloud und mobilen Systemen hin. Auch das Internet der Dinge und Datenanalysen gewinnen dabei an Bedeutung. HID Global sieht im Jahr 2018 fünf wichtige Entwicklungen beim Einsatz vertrauenswürdiger Identitäten durch Unternehmen.

  • Intuitiver Informationszugriff sicherstellen

    Embedded Analytics, Prognostische Analytik und die zunehmende Nutzung von KI-Technologien: Nach Meinung von Information Builders sind dies 2018 die wichtigsten Trends beim Einsatz von Business-Intelligence-Anwendungen in Unternehmen. In einem dynamischen Wirtschaftsumfeld mit sich immer schneller ändernden Anforderungen spielen Business-Intelligence-Applikationen eine essenzielle Rolle: sie liefern fundierte Grundlagen für bessere Entscheidungen. Unternehmen schaffen damit die Basis für eine hohe Flexibilität. Information Builders, ein führender Anbieter von Business-Intelligence (BI)-, Analytics-, Datenintegritäts- und Datenqualitätslösungen, gibt einen Ausblick auf die wichtigsten Entwicklungstendenzen im BI-Sektor für das neue Jahr.

  • Verwaltung von Multi-Cloud-Umgebungen

    Die meisten Unternehmen bereiten sich darauf vor, die neue Technologie in diesem Jahr einzuführen. Aber die wenigstens sind in der Lage, eine weiter verzweigte virtuelle Infrastruktur effizient zu verwalten und abzusichern. In einer Umfrage von BMC zum Thema Multi-Cloud zeigt sich, dass 40 Prozent der IT-Verantwortlichen gar nicht wissen, wie viel ihr Unternehmen für Public-Cloud-Anwendungen ausgibt. Allerdings haben bereits 80 Prozent erkannt, dass die Verwaltung von Multi-Cloud-Umgebungen ganz neue Ansätze benötigt. Dazu gehören der Einsatz von künstlicher Intelligenz und Machine Learning. Damit wird 2018 das Jahr, in dem Unternehmen mit Multi-Cloud richtig Fahrt aufnehmen.

  • Banken: Zurück zu Inhouse-Lösungen

    Zahlreiche Banken haben Dienstleitungen oder Prozesse ausgelagert, um Kosten zu sparen. Weil aber Komplexität und Regulierung zunehmen, wird dies immer unrentabler. Einen Ausweg könne Robotic Process Automation (RPA) bieten, so Stefan Steinhoff, der bei der TME AG den Bereich Risk & Regulatory verantwortet. Die Frankfurter Unternehmensberatung für Financial Services sieht ein enormes Potenzial in RPA-Technologien. "Vieles lässt sich damit effizienter, günstiger und genauer erledigen", sagt Steinhoff. Die fünfte MaRisk-Novelle erschwert die Auslagerung von Kernbereichen wie Compliance oder Revision, die Ausgaben für die Steuerung der mit einer Auslagerung verbundenen Risiken steigen und künftig wird ein Zentrales Auslagerungsmanagement Pflicht sein.

  • KI boomt dank Cloud Computing

    Smarte Ökosysteme, Künstliche Intelligenz, Blockchain und New Work - das sind die Trendthemen des Jahres 2018, erklärt der eco - Verband der Internetwirtschaft e. V. "Die Internet-Industrie ist im Jahr 2018 stärker denn je Taktgeber für Innovation und Wachstum", sagt eco Hauptgeschäftsführer Harald A. Summa. "Anbieter werden ihre Lösungen verstärkt zu digitalen Ökosystemen vernetzen und so mittels neuer Technologien echte Mehrwerte für Unternehmen und Privatpersonen schaffen." Neue Ökosysteme im IoT (Internet of Things) ermöglichen 2018 viele neue Geschäftsmodelle in den Bereichen Smart City, Smart Home oder Industrial-IoT. Dafür müssen sich Unternehmen 2018 entlang der Wertschöpfungskette stärker öffnen und kooperieren, zeigen der eco Verband und Arthur D. Little aktuell in der Studie "Der deutsche Smart-City-, Smart-Home- und Industrial-IoT-Markt 2017-2022". Im Bereich Smart-Home etwa liegt die durchschnittliche jährliche Wachstumsrate in den kommenden fünf Jahren bei 26,4 Prozent.