- Anzeige -


Sie sind hier: Startseite » Markt » Tipps und Hinweise

Zukunftsinvestition: DataOps-Plattform


Wer die richtigen drei Fragen stellt, findet relativ schnell und unkompliziert die passende DataOps-Plattform
Viele Datenteams in Unternehmen haben immer noch Schwierigkeiten, eine neue IT-Umgebung noch am selben Tag bereitzustellen

- Anzeigen -





Von Dhiraj Sehgal, Director Product and Solution Marketing bei Delphix

Langsam, aber sicher ist DataOps kein Fremdwort mehr. Immer mehr Tools und Lösungen werben mit dem Begriff für sich. Wie sollen Unternehmen da noch den Überblick behalten? Hier sind drei Fragen, die sich Verantwortliche stellen müssen, wenn sie die richtige DataOps-Technologie für ihre Datenteams einsetzen möchten. DevOps ist heute unerlässlich für alle Unternehmen, die flexibel sein und möglichst schnell qualitativ hochwertige Produkte und Dienstleistungen anbieten wollen. Wer auf DevOps verzichtet, kann sich kaum über einen längeren Zeitraum gegenüber der Konkurrenz behaupten. Denn der Ansatz spielt eine entscheidende Rolle bei der Automatisierung der IT-Infrastruktur und des Softwareentwicklungszyklus. Dennoch hat DevOps bisher ein entscheidendes Element gefehlt, das für viele Innovationen zentral ist: die Datenbereitstellung. Genau hier setzt DataOps an.

Zeitfresser Datenbereitstellung
Viele Datenteams in Unternehmen haben immer noch Schwierigkeiten, eine neue IT-Umgebung noch am selben Tag bereitzustellen. In einer aktuellen Studie des Beratungsunternehmens 451 Research gaben 47 Prozent der befragten globalen Unternehmen sogar an, dass es bei ihnen vier bis fünf Tage dauert, eine neue Datenumgebung einzurichten. Unabhängig davon, wie schnell IT-Infrastruktur und Software-Development-Life-Circle (SDLC)-Tooling sind – diese Verzögerung bleibt nicht ohne Folgen. Denn eine zähe Datenbereitstellung kann Entwicklungsprozesse stark ausbremsen.

Dabei stehen die Zeichen so günstig wie nie zuvor: Unternehmen haben immer mehr Möglichkeiten, ihre Infrastruktur zu automatisieren. Entwicklerteams können heutzutage Rechen-, Speicher- und Netzwerkumgebungen in Minutenschnelle mit Anbietern und Tools wie Ansible, Chef und Puppet auf- und abbauen. Viele Unternehmen haben zudem bereits in agile Entwicklung und DevOps investiert. Einige unter ihnen haben sogar eine Testautomatisierung aufgebaut, um ihre Entwicklungspipelines zu automatisieren und Releases mit Tools wie Git, Jenkins, Maven und Docker schneller auf den Markt zu bringen. Wenn es allerdings an einer effizienten Datenbereitstellung fehlt, waren alle diese Bemühungen umsonst.

DataOps ist der Schlüssel zum DevOps-Schloss
In den letzten Jahren hat sich das Datenmanagement als das letzte grundlegende Element für Störungen im Entwicklungsprozess herausgestellt, die sich mit DevOps nicht lösen lassen. Hier setzt DataOps an: Dabei handelt es sich um einen kollaborativen Datenmanagement-Ansatz. Dieser trägt dazu bei, die Effizienz sowie Art und Weise, wie Daten im gesamten Unternehmen verwendet werden, zu verbessern. Der Schlüssel dazu liegt in einer möglichst umfassenden Abstimmung aller beteiligten Personen, Prozesse und Technologien.

Datenmanagement-Lösungen gehören daher zum Kern jedes DataOps-Ansatzes. Doch mittlerweile gibt es verschiedenste Lösungen und Plattformen, die den Titel DataOps für sich beanspruchen. Folgende drei Fragen helfen den Verantwortlichen, im Angebotsdschungel die richtige DataOps-Plattform zu finden:

1. Kann die DataOps-Plattform allen Beteiligten Daten automatisiert bereitstellen?
Da Anwendungen mehrere Datenquellen nutzen, sollte der SDLC-Workflow auch das gleiche Szenario in AppDev-, Quality Assurance-, Staging- und Produktionsumgebungen abbilden. Eine DataOps-Lösung muss dafür in der Lage sein, Daten aus allen Produktionsdatenquellen konsistent an verschiedene beteiligte Gruppen und Teams zu liefern. Darüber hinaus sollte die Plattform Abstraktionen bereitstellen, die unabhängig von der Datenquelle oder dem Betriebskontext (On-Premises oder Public Cloud) gleich funktionieren und jedem Benutzer wiederholbare, integrierte und einheitliche Workflows aus mehreren Datenquellen zur Verfügung stellen.

2. Kann die Plattform die Datenerkennung und -maskierung sensibler Informationen im gesamten Unternehmen automatisieren?
Eine leistungsfähige DataOps-Lösung sollte weiterhin in der Lage sein, Daten aus jeder Datenquelle zu analysieren, kategorisieren und gegebenenfalls zu maskieren. Nur so ist sichergestellt, dass sensible Daten nicht in Umgebungen mit geringeren Sicherheitsstandards gelangen. Die erzeugten Datenkopien sollten realistisch, aber fiktiv sein. So sind Tests durchführbar, für Diebe und Hacker aber gleichzeitig wertlos. Es empfiehlt sich zudem, dass die maskierten Datenwerte auch für nicht-produktive Anwendungsfälle verwendbar sind.

3. Kann die Plattform den Endnutzern personenbezogene Datenumgebungen zur Verfügung stellen und sie diese bearbeiten lassen?
Die richtige Plattform zeichnet sich dadurch aus, dass sie personenbezogene Datenumgebungen ohne Speicheraufwand schnell mit erweiterten Datenbearbeitungstools wie Lesezeichen, Zurückspulen, Zurücksetzen und Verzweigen ausstattet. Einzelne Benutzer, einschließlich Quality Assurance Engineers, Tester und Entwickler, sollten effizient und einfach zusammenarbeiten können, indem sie ein Lesezeichen gemeinsam nutzen und eine Lesezeichen-Bibliothek für mehrere Workflows erstellen.

Fazit
Automatisierungsprozesse werden in Zukunft im IT-Bereich immer umfassender sein. Unternehmen dürfen dabei auf drei Ebenen keinesfalls den Anschluss verpassen: bei der IT-Infrastruktur, Softwareentwicklung und im Datenmanagement. Nur dann sind sie in der Lage, Störungen zu beheben und schneller als ihre Konkurrenten zu innovieren. Wenn den Verantwortlichen dies allerdings gelingt und sie die richtigen DataOps-Technologien in ihre DevOps-Prozesse integrieren, steht einem möglichst effizienten und agilen Entwicklungsprozess nichts mehr im Weg. (Delphix: ra)

eingetragen: 12.08.19
Newsletterlauf: 19.09.19

Delphix: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Tipps und Hinweise

  • Den richtigen MSSP auswählen

    Für angemessene IT-Sicherheit zu sorgen, wird immer aufwändiger. Denn einerseits wächst die Bedrohungslage, andererseits werden Security-Lösungen immer komplexer. Hinzu kommt - insbesondere auch bei vielen Mittelständlern - der Fachkräftemangel. Viele Unternehmen entscheiden sich daher, Security-Prozesse an einen spezialisierten Dienstleister auszulagern. Worauf Sie dabei achten sollten und woran Sie einen professionellen Service Provider erkennen, erklärt Ulrich Pfister, Head of Consulting, bei indevis. Eben mal die besten Security-Produkte kaufen und in Betrieb nehmen - so einfach funktioniert IT-Sicherheit leider nicht. Denn die Tools und Lösungen müssen auch richtig zusammenspielen und man muss sie kontinuierlich managen. Das aber erfordert fundiertes Know-how und entsprechende personelle Ressourcen. Beides ist in Zeiten des Fachkräftemangels schwer zu finden. In vielen Unternehmen arbeiten die IT-Abteilungen ohnehin schon am Rande ihrer Kapazitäten.

  • Cloud Security durch SASE

    Forcepoint zeigt auf, wie CISOs ihre Unternehmen heute schon auf die Zukunft von Networking und Security vorbereiten können. Die digitale Transformation stellt die herkömmlichen IT-Sicherheitsarchitekturen der Unternehmen zunehmend vor Probleme. Immer mehr Anwendungen werden in die Cloud verlagert und immer mehr Nutzer greifen darauf remote oder mobil zu - und damit von außerhalb der Firmennetzwerke. Um die klassischen On-Premises-Sicherheitsvorkehrungen durchlaufen zu können, muss der Datenfluss dabei über das zentrale Rechenzentrum umgeleitet werden. Das führt zu schwacher Performance und hohen Latenzen.

  • Die intelligente Generation der IT-Infrastruktur

    Hardware, Software, Infrastrukturen - mit ihnen ist das so eine Sache. Vom Start-up bis zum Enterprise-Konzern: Alle benötigen bestenfalls neueste, hochwertige und leistungsfähige IT, doch bedeuten diese Attribute automatisch einen großen Einsatz finanzieller Mittel. "Gerade Start-ups und noch relativ junge Mittelständler haben oft das Problem, dass sich die Anforderungen an die Infrastrukturen schnell ändern können und dann schon nach kurzer Zeit eine Systemüberlastung entsteht. Oder es wird in teure Systeme investiert, deren Möglichkeiten dann zwar bezahlt, aber nicht gänzlich genutzt werden", weiß Torben Belz, Geschäftsführer der Plutex GmbH aus Bremen. Hosting- oder Colocationmodelle stellen nicht nur kostengünstige Alternativen zu einem Kauf dar, sondern ermöglichen auch Flexibilität und steigern in manchen Fällen sogar die Datensicherheit.

  • Lektion zur Datensicherheit

    Da Schüler, Studenten, Lehrkräfte und Dozenten zunehmend digitale Inhalte, Cloud-Dienste und Online-Anwendungen nutzen, haben Bildungseinrichtungen mit einem exponentiellen Wachstum der von ihnen verarbeiteten Datenmengen zu kämpfen. Um dieser datenintensiven Situation gerecht zu werden, benötigen sie effiziente und zugleich erschwingliche Möglichkeiten, um ihren Speicherbedarf zu erweitern und die Datensicherung und -wiederherstellung zu verbessern. Um angesichts des extremen Budgetdrucks effizienter und kostengünstiger wirtschaften zu können, sucht der Bildungssektor nach neuen Wegen und Möglichkeiten. Inzwischen findet die Cloud dabei zunehmend mehr Beachtung. Die Bildungsbranche hat erkannt, dass die Cloud zusätzliche, leistungsfähige Funktionen bietet - und das äußerst kostengünstig. Denn wer sich auf die Cloud verlässt, muss kein großes IT-Team vorhalten oder gar ein eigenes Rechenzentrum betreiben. Deshalb wünschen sich Bildungseinrichtungen von der Cloud, dass sie so sicher wie möglich ist und dass der jeweilige Cloud-Anbieter die Verantwortung für den Schutz der Daten übernimmt.

  • Cloud Security-Lösungen gegen APTs

    Mit der fortschreitenden Digitalisierung entwickeln sich auch die Geschäftsanforderungen rasant weiter. Dabei ist die schnelle Bereitstellung von Unternehmensanwendungen für die Einführung neuer, verbesserter Geschäftsabläufe zentral. Für viele Unternehmen ist die Auslagerung von Workloads in die Public Cloud dafür das Mittel der Wahl. Hochverfügbarkeit, Skalierbarkeit sowie Kosteneffizienz eröffnen die Möglichkeit, innovative betriebliche Entwicklungen mit geringem Aufwand umzusetzen. Was die Risikoeinschätzung für die dort gespeicherten Daten anbelangt, müssen viele Unternehmen jedoch umdenken.

  • Sicherheitsanforderungen der Kunden umzusetzen

    Einer aktuellen Bitkom-Studie zu Folge arbeitet momentan jeder zweite Arbeitnehmer mehr oder weniger freiwillig von zu Hause. In vielen Unternehmen wurden die situativ erforderlichen, oftmals neuen Arbeitsregelungen allerdings hastig und wenig vorbereitet eingeführt. Selbst dort, wo Homeoffice bislang gewährt wurde, stellt dieser Schritt eine einschneidende Entscheidung dar. Wo bislang nur manche Mitarbeitergruppen an einzelnen Tagen von zu Hause arbeiten konnten, wurden nun beinahe alle Mitarbeiter in die Heimarbeit geschickt. Daher überrascht es wenig, dass sich laut Bitkom fast 40 Prozent der Mitarbeiter nicht ausreichend für eine Arbeit daheim gerüstet sehen. Managed Service Provider können hier ihre Kunden mit flexiblen und dabei sicheren Lösungen unterstützen. Etwa, indem sie die Wartung der IT aus der Ferne übernehmen und so für eine sichere und stabile IT-Infrastruktur für die Arbeit im Homeoffice sorgen: Remote Monitoring und Management, sowie Cloud Security und Backup können dabei helfen, auch in Infrastruktur-belastenden Krisenzeiten produktive und sichere Arbeitsumgebungen bereitzustellen.

  • Gesundheit der Mitarbeiter oberste Priorität

    Die COVID-19-Pandemie hat Unternehmen weltweit dazu gezwungen, bestehende Unternehmensstrukturen und Arbeitsweisen zu hinterfragen und neu zu denken. Aktuell dominieren Spekulationen darüber, wann sich das Arbeitsleben und der tägliche Umgang miteinander wieder normalisieren - doch was wird nach der Krise "normal" sein? Bereits jetzt ist klar, dass es Veränderungen geben wird und neue, flexiblere Arbeitsweisen endgültig starre Routinen ersetzen. Daher müssen sich Unternehmen schon jetzt damit befassen, wie die Arbeitswelt nach COVID-19 aussehen wird und was ihre Mitarbeiter hierfür benötigen werden.

  • Für zuverlässige Endpoint-Security-Maßnahmen

    Eine entscheidende Maßnahme zur Verlangsamung der Ausbreitung von COVID-19 ist "Social Distancing". Deshalb erlassen viele kommunale und staatliche Einrichtungen jetzt verbindliche Anordnungen hinsichtlich der räumlichen Trennung von Personen. Das hat dazu geführt, dass IT-Teams praktisch über Nacht dafür sorgen müssen, dass die Mitarbeiter von Unternehmen aus dem Homeoffice arbeiten können. Da diese Situation weltweit auf Millionen von Menschen gleichzeitig zutrifft, erleben wir gerade das größte Remote-Working-Projekt aller Zeiten. Der Umzug von Mitarbeitern, deren Computern und ihren Daten aus einer sicheren Büroumgebung ins häusliche Umfeld birgt ein enormes Risiko für die Datensicherheit, technische Störungen, versehentliche Fehler oder gar Cyberattacken. Die nachfolgenden Schritte skizzieren, wie Unternehmen dafür sorgen können, dass langfristig ein sicheres Remote Working möglich ist.

  • Ursachen für das Scheitern von Cloud-Migrationen

    Die Digitalisierung führt in Unternehmen zu einem beispiellos hohen Datenaufkommen. SQL Server-Datenbanken aus Microsoft Azure oder Amazon Web Services (AWS) zu betreiben, sehen viele Unternehmen daher als geeigneten Weg an, um angesichts wachsender Datenflut und komplexeren Analyseanforderungen Performanz und Leistung der IT sicherstellen zu können. Die anfängliche Hoffnung, durch den Wechsel in die Cloud kosteneffizienter arbeiten zu können, erfüllt sich für manche allerdings nicht. Eine bedeutende Ursache dafür könnte darin bestehen, dass Datenbestände vorab nicht für die neue Cloud Computing-Umgebung optimiert wurden. Die Migration sollte deshalb erst nach eingehender Vorbereitung vollzogen werden. Bei der Migration in die Cloud verhält es sich ähnlich wie bei einem Wohnungsumzug: Während man Regale ausräumt und seine Besitztümer in Augenschein nimmt, tauchen Gegenstände auf, von denen man sich gar nicht mehr bewusst war, dass man sie besitzt. Die Frage, die sich dabei unweigerlich aufdrängt, ist: Hat der gesamte Hausstand in der neuen Wohnung noch Relevanz? Oder ist der Zeitpunkt gekommen, einige Bestandteile auszusortieren?

  • Umsetzung einer Cloud-Strategie

    Die Sicherung von Innovations- und Wettbewerbsstärke steht üblicherweise in jedem Lastenheft von Unternehmenslenkern. Doch auch die Entwicklung von Strategien zur Aufrechterhaltung des Geschäftsbetriebs in weniger rosigen Zeiten nimmt an Bedeutung zu. Die jüngsten Ereignisse zeigen, dass dies für viele Unternehmen bedeutet, die Digitalisierung mit Nachdruck voranzutreiben und dabei auch die eigene IT-Strategie auf den Prüfstand zu stellen.