- Anzeige -


Sie sind hier: Startseite » Markt » Tipps und Hinweise

DataOps: Eine willkommene Hilfestellung


Wie Unternehmen mit DataOps die Herausforderungen der digitalen Transformation meistern
Im Sicherheitsbereich stellt sich insbesondere die Frage, wie man in immer komplexeren IT-Infrastrukturen und Cloud-Landschaften weiterhin Datensicherheit und Compliance-Treue gewährleisten kann

- Anzeigen -





Von Minas Botzoglou ist Regional Sales Director DACH bei Delphix

In der heutigen Geschäftslandschaft ist jede Firma mit Wettbewerbsanspruch ein Datenunternehmen. Denn wer dauerhaft erfolgreich bleiben möchte, muss alle verfügbaren Daten strategisch einsetzen. Dabei sollen Firmen aber weiterhin sensible Kundeninformationen konsequent schützen und die Vielzahl neuer und strengerer Datenvorschriften (über)erfüllen. Gleichzeitig benötigen allerdings immer mehr Nutzer und Mitarbeiter Zugang zu immer mehr und umfangreicheren Datensätzen. Mit DataOps können Unternehmen hier die Balance zwischen Sicherheit und Zugänglichkeit finden.

Unternehmen jeder Größenordnung investieren in die Entwicklung neuer datengetriebener Anwendungen und Geschäftsmodelle, um ihr eigenes Innovationspotenzial zu fördern. Im Falle der digitalen Transformation von Geschäftsprozessen erfordert das vor allem Flexibilität. Denn bleiben die Bereitstellung und Verwaltung von Daten in weitgehend manuellen Prozessen verwurzelt, werden diese schnell zu einem Engpass für Fortschritt und Effizienz. Die exponentiell wachsenden Datensätze beschleunigen diese Entwicklung. Die großflächige Bereitstellung von Daten ist für viele Unternehmen jedoch oft mit Adjektiven wie langsam, teuer und vor allem riskant behaftet.

Sicher und gleichzeitig nutzerfreundlich
Auch eine neue Studie des führenden Forschungs- und Beratungsunternehmens 451 Research beweist das noch einmal eindrücklich: 451 Research hat 150 Führungskräfte in Firmen befragt, wo sie die größte Herausforderung in der digitalen Transformation sehen. Eine Mehrheit der Teilnehmer gab dabei den Security-Bereich (68 Prozent) und die Datenbereitstellung für verschiedene Nutzer (42 Prozent) an.

Laut einer aktuellen Studie von 451 Research sehen 68 Prozent der Befragten die größte Herausforderung der digitalen Transformation im Security-Bereich (Quelle: 451 Research DataOps Survey).

Im Sicherheitsbereich stellt sich insbesondere die Frage, wie man in immer komplexeren IT-Infrastrukturen und Cloud-Landschaften weiterhin Datensicherheit und Compliance-Treue gewährleisten kann. Bei der Benutzerfreundlichkeit besteht die Schwierigkeit dagegen darin, sogenannte "User Frictions" zu verhindern, also Spannungen zwischen verschiedenen Nutzergruppen. Denn heutzutage verlangen alle Bereiche einer Firma nach einem Datenzugang. Je besser die Bereitstellung funktioniert, desto flexibler kann das Unternehmen auf Marktveränderungen reagieren – ein entscheidender Wettbewerbsvorteil.

Daher gilt es, möglichst schnell Lösungen in den Bereichen Sicherheit und Nutzerfreundlichkeit zu finden. Nur so kann eine Firma wettbewerbsfähig bleiben und sich weiterentwickeln. Mehr denn je gilt dabei der Aphorismus: Zeit ist Geld.

Hilfe bei der Lösungsfindung bietet DataOps. In der Studie definiert Matt Aslett, Research VP für Data, AI & Analytcs bei 451 Research den Begriff als die Koordination von Menschen, Prozessen und Technologien, um agile und automatisierte Ansätze für das Datenmanagement in Unternehmen zu fördern und so die Geschäftsziele zu erreichen.

Das Ziel von DataOps ist, den Zugriff auf Unternehmensdaten zu erleichtern, um den Anforderungen der beteiligten Interessengruppen in der Datenlieferkette (Entwickler, Datenwissenschaftler, Business-Analysten, DevOps-Experten usw.) gerecht zu werden und gleichzeitig eine breite Palette von Anwendungsfällen zu unterstützen. DataOps spielt damit für das gesamte Datenmanagement eine zentrale Rolle.

Die Umfrage von 451 Research bestätigt diese Sichtweise: 94 Prozent aller befragten Firmen, die DataOps nutzen, haben bereits eine Strategie für die digitale Transformation entwickelt. 92 Prozent der Befragten stimmen zudem der Aussage zu, dass DataOps einen positiven Einfluss auf den Erfolg des Unternehmens hat. Und 66 Prozent der Entscheidungsträger glauben, dass DataOps ihre Datensicherheit verbessert.

Lösungen für mehr Sicherheit und Nutzerfreundlichkeit
Daten müssen gesichert werden, damit nur autorisierte Personen Zugang zu ihnen haben. Das geschieht allerdings in vielen Fällen immer noch unzureichend. IT-Systeme und Personen sind nicht unfehlbar, und der einzige Weg, Benutzer mit den benötigten Daten zu versorgen, besteht darin, Risiken innerhalb der Daten proaktiv zu identifizieren und zu minimieren.

Genau das leistet DataOps: Es erlaubt den Einsatz von automatisierten Techniken wie dem Maskieren von Daten, sodass Firmen auch vertrauliche Daten anonymisiert an die Teams und Drittpartner weitergeben können, die sie benötigen, ohne deren Inhalte zu gefährden. Anspruchsvolle Datenunternehmen können sich anschließend darauf verlassen, dass eventuell auftretende Sicherheitsprobleme die Realdaten der Kunden keinen größeren Schaden anrichten und die Firma nicht gefährden.

Im Benutzer-Bereich besteht die einzige Möglichkeit der intensiven Nachfrage zu begegnen darin, einen Data Self-Service bereitzustellen. Was genau Selbstbedienung dabei bedeutet, variiert von Benutzer zu Benutzer. Aber trotz aller Unterschiede müssen alle Nutzer in der Lage sein, ohne größeren Aufwand und lange Wartezeiten an die benötigten Daten zu gelangen. Nur ein automatisiertes Datenmanagement kann das in dem benötigten Ausmaß optimal sicherstellen und die Kooperation einzelner Firmenbereiche untereinander modifizieren, z.B. in Form von abteilungsübergreifenden Teams.

DataOps macht digitale Transformation zur großen Chance
DataOps ist bisher noch nicht im Mainstream eingezogen und steht verhältnismäßig am Anfang seiner Entwicklung. Das ist allerdings kein Grund, DataOps nicht möglichst schnell in die eigene Digitalstrategie einzubinden. Denn die Studiendaten belegen: Schon jetzt können Unternehmen von diesen Strategien in großem Umfang und nachhaltig profitieren. Sie fördern ein agiles, sicheres und nutzerfreundliches Datenmanagement, das sich als Teil einer ganzheitlichen Transformation zu einem erheblichen Wettbewerbsvorteil entwickeln kann. (Delphix: ra)

eingetragen: 15.03.19
Newsletterlauf: 27.03.19

Delphix: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Tipps und Hinweise

  • AIOps-Ansatz liefert klare Vorteile

    Über Fehler in ihrem IT-Betrieb erfahren Unternehmen heute meist dadurch, dass sich Kunden über Probleme beschweren. Eine Umfrage von AppDynamics hat ergeben, dass 58 Prozent der IT-Teams durch Anrufe oder Kunden-E-Mails über Fehlfunktionen informiert werden. Führungskräfte oder andere Mitarbeiter außerhalb der IT entdecken 55 Prozent der bekannten Probleme. 38 Prozent werden durch User Posts in sozialen Netzwerken aufgedeckt. Natürlich wäre es für alle Beteiligten besser, wenn Unternehmen Fehler finden, bevor sich Kunden beschweren, oder sogar strukturelle Probleme so früh erkennen, dass Fehler gar nicht erst auftreten. Die enorme Komplexität heutiger Systeme und Infrastrukturen erlaubt das, zumindest auf konventionellen Wegen, nicht mehr. In einem vergleichsweise einfachen technischen System, wie einer Dampfmaschine, kann ein guter Maschinist durch regelmäßige Wartung für einen reibungslosen Betrieb sorgen. Er weiß, wo er seine Maschine schmieren muss, welche Belastungen er ihr zumuten kann und wann es Zeit wird, Verschleißteile auszutauschen. In modernen digitalen Systemen können Menschen dieses Verständnis nicht mehr erreichen.

  • Angst vor einem "Lock-in"

    Die Wahl der richtigen Plattform für Unternehmensapplikationen mag auf den ersten Blick nebensächlich erscheinen, dabei hat sie immensen Einfluss auf alle folgenden Entscheidungen im Hinblick auf die Entwicklungsumgebung. Denn fällt die Wahl auf den falschen Cloud Computing-Anbieter, das falsche Betriebssystem oder die falsche Programmiersprache kann das im Nachhinein bei Mitarbeitern zu Unzufriedenheit und Zähneknirschen führen und durch erhöhten Personalaufwand richtig teuer werden. Um das zu vermeiden, geht der Trend in Entwicklungsteams immer mehr zu (Software-)Containern und Microservices. Indem sie Fremdmaterial entfernen und die Größe der Images auf das erforderliche Maß reduzieren, erleichtern es Container, Software zielgerichtet einzusetzen. Und diese Konzentration auf das Wesentliche steigert die Produktivität von Entwicklern enorm. Eine Umfrage von 451 Research hat das jüngst noch einmal eindrucksvoll belegt: Rund 57 Prozent der befragten Unternehmen nannten die Produktivität der Entwickler als einen entscheidenden Grund für ihren Wechsel zu Containern.

  • Wie Hosting scheitern kann

    Wer ein Unternehmen betreibt, kommt um eine Präsenz im Web nicht herum. Egal ob Gastronomie, Industrie, Handwerk, Fashion, Kosmetik, Medien, Versicherungen oder Anwälte, selbst kleinste Privatunternehmer nutzen eine Internetseite, um ihre Dienste oder Produkte anzubieten. Dabei ist es wichtig, dass die Seite online immer verfügbar ist, sehr schnell lädt und es nicht zu Ausfallzeiten kommt. Je mehr Inhalt eine Website bietet und je höher die Besucherzahlen sind, umso größer ist die Gefahr, dass es zu Ausfällen oder langen Ladezeiten kommt. Dies betrifft jedoch nicht nur kleine Unternehmen, sondern auch Mittelständler und Enterprise. "Ein optimaler Webauftritt kann nur mithilfe von Hosting in professionellen Rechenzentren ausfallsicher und hochperformant abgebildet werden", weiß Torben Belz, Geschäftsführer der Plutex GmbH, und fügt hinzu: "Wer sich im Dschungel der Hosting-Optionen nicht auskennt, kann hier schnell Fehler machen."

  • Georedundanz gebender Rechenzentren

    Kurz vor Weihnachten hat das BSI (Bundesamt für Sicherheit in der Informationstechnik) seine Empfehlung für die Entfernung georedundanter Rechenzentren von fünf auf 200 Kilometer angehoben. Die Gründe für diese Empfehlung sind im neuen Leitfaden des BSI "Kriterien fu¨r die Standortwahl höchstverfügbarer und georedundanter Rechenzentren" genau dokumentiert. Was die Entfernung von einander Georedundanz gebender Rechenzentren betrifft, empfahl das BSI bisher einen Mindestabstand von fünf Kilometern. Mit der neuen, im Dezember 2018 veröffentlichten Empfehlung, hebt das BSI diese Distanz drastisch an. "Da es aber, insbesondere durch den Blick in die Vergangenheit, nicht möglich ist, zukünftige potentiell schädliche Situationen und Ereignisse ausreichend sicher vorherzusagen, sollten einander Georedundanz gebende Rechenzentren einen Mindestabstand von circa 200 Kilometer zueinander haben", führt das BSI in seinen Standort-Kriterien unter Punkt 3.3 aus - 40-mal so viel wie bisher. "Ist im Einzelfall ein deutlich geringerer Abstand unabweisbar", so das BSI weiter, " ist diese Notwendigkeit schriftlich ausführlich darzulegen und einer Risikoanalyse zu unterziehen". Doch auch dann, sollten georedundante Rechenzentren keinesfalls unter 100 Kilometer auseinanderliegen.

  • Cloud-Migration schnell und sicher umsetzen

    Entscheiden sich Unternehmen, ihre Applikationen in die Cloud zu migrieren, können sie nur profitieren. Denn die Cloud macht viele Digitalinnovationen überhaupt erst möglich. Allerdings kann beim Weg in die Cloud auch einiges schief gehen: Mangelndes Know-how, unrealistische Zeitvorgaben oder die Wahl der falschen Plattform sind gängige Stolpersteine. Richtig geplant wird die Migration in die Cloud jedoch zum Erfolgsprojekt. Rackspace hat drei Punkte zusammengestellt, auf die es bei der Planung ankommt.

  • Geschäftsprozesse in die Cloud verlagern

    Die Verlagerung von Geschäftsprozessen und Applikationen in die Cloud erfordert eine genaue Planung, damit die Datensicherheit zu jeder Zeit und in jedem Detail gewährleistet ist. Die Diskussion um den Einsatz von Cloud-Technologien ist mittlerweile nicht mehr von Sicherheitsbedenken geprägt. Heute wollen Unternehmen in erster Linie die damit verbundenen Chancen nutzen, um die Digitale Transformation voranzutreiben. Wenn Unternehmen komplette Geschäftsprozesse in die Cloud verlagern, lassen sich die erwarteten betriebswirtschaftlichen Ziele nur dann erreichen, wenn die Migration von Anfang an durch eine umfassende IT-Security-Strategie abgesichert ist - bei der die Sicherheit der Daten eine entscheidende Rolle spielt. NTT Security konkretisiert die wichtigsten Aktivitäten in fünf Schritten.

  • Daten nur verschlüsselt in der Cloud speichern

    Das Nutzen von Cloud Computing-Services gehört für die Mehrheit der Unternehmen längst zum festen Bestandteil der IT-Strategie. Die Möglichkeit des Datenzugriffs jederzeit und überall bringt zahlreiche Vorteile mit sich, allen voran verbesserte Flexibilität und erhöhte Produktivität. Die gestiegene Popularität dieser Dienste ist jedoch von böswilligen Akteuren nicht unbemerkt geblieben, was neue Arten von Cyberangriffen hervorgebracht hat. Eine Taktik, die in den vergangenen Jahren zunehmend zum Einsatz kam, ist der sogenannte "Man-in-the-Cloud" (MitC)-Angriff.

  • Daten in der Cloud und Cloud-Workloads

    As-a-Service-Lösungen verbreiten sich immer weiter. Dabei haben wir es längst nicht mehr mit einer einzigen Cloud zu tun. 82 Prozent der Unternehmen nutzen mehr als zehn verschiedene Public-Cloud-Dienste, so eine aktuelle Studie von McAfee. Dazu kommen noch Private Clouds und On-Premise-Systeme. Traditionelle Sicherheitssysteme stoßen im Angesicht dieser neuen komplexen Architekturen schnell an ihre Grenzen und Unternehmen drohen den Überblick zu verlieren. Rolf Haas, Enterprise Technology Specialist von McAfee, hat fünf Tipps um das zu verhindern:

  • Data Warehouse als erstes in die Cloud

    Die Migration des Data Warehouse in die Cloud ist für Unternehmen, die Teile ihrer Infrastruktur in die Cloud verlegen, ein wichtiger und über kurz oder lang auch notwendiger Schritt. Als eines der wichtigsten Puzzleteile der Infrastruktur, ist er leider auch meist sehr komplex und mit hohen Kosten verbunden. Anstatt die Migration dieses wichtigen Bestandteils der Dateninfrastruktur unnötig zu verzögern, können Unternehmen auf Automation setzen, um den Prozess zu vereinfachen. Ein wichtiges langfristiges Ziel vieler Unternehmen, im Prozess der Digitalen Transformation, ist die Nutzung von Cloud-Technologien. Schaut man sich die Zahlen der Cloud-Adaption jedoch genauer an, so sind offenkundig noch viele Unternehmen weit davon entfernt Teile ihrer Infrastruktur in die Cloud zu migrieren. Anstatt das langfristige Ziel Cloud, entschlossen anzupacken, prokrastinieren diese Unternehmen und setzen stattdessen oft auf Zwischenlösungen oder Abkürzungen. Und anstatt die wichtigen Bestandteile der Infrastruktur zuerst zu migrieren, wählen sie zuerst eher einfach zu migrierende Teile aus.

  • Datenstrategie braucht mehr als Tools

    Die Menschheit produziert 2,5 Trillionen Bytes pro Tag. In den letzten zwei Jahren wurden mehr Daten gesammelt, als in der gesamten Menschheitsgeschichte zusammen. Für jeden Menschen entstehen pro Sekunde 1,7 Megabyte neue Rohinformationen. Kurzum: Die Datenflut ist unaufhaltsam. Wobei diese Datenflut nicht automatisch bedeutet, dass daraus auch Wissen entsteht. Daten und Informationen an sich haben zunächst keinen Wert. Sie sind wie Rohdiamanten, die erst durch ihre Verarbeitung Brillanz gewinnen. Auch für Unternehmen entfalten Kundendaten erst ihren Wert, wenn sie ausgewertet einen Erkenntnisgewinn liefern, der zu neuen Handlungsoptionen führt. Das bedeutet, dass Unternehmen eine Datenstrategie brauchen, die ihre Geschäftsprozesse fundiert und leitet.