- Anzeige -


Sie sind hier: Startseite » Markt » Hintergrund

Auswirkungen auf das Datenmanagement


Ordnung mit DataOps: Das Datenwachstum kontrollieren (und nutzen)
Der Umfang von Storage und Datenverarbeitung, gerade auf Cloud-Plattformen, wäre vor wenigen Jahren noch unvorstellbar gewesen

- Anzeigen -





Für Firmen wird es immer schwieriger, effizient und verantwortungsbewusst mit ihren Daten umzugehen: Viele haben schier den Überblick verloren. Das muss allerdings nicht sein: Mit DataOps hilft ein neuer Ansatz im Datenmanagement wieder Ordnung in die Datenbanken zu bringen. Laut einer aktuellen Studie des Forschungs- und Beratungsunternehmens 451 Research unter 150 Führungskräften, wachsen die Daten eines Großteils der befragten Firmen täglich beträchtlich: Bei 29 Prozent um 100 bis 500 Gigabyte (GB) pro Tag und bei 19 Prozent um 500 GB bis 1 Terabyte (TB). Immerhin noch 13 Prozent verzeichnen sogar eine Zunahme von 2 TB.

Das hat Auswirkungen auf das Datenmanagement – und wo dieses stattfindet. Das Angebot an Datenplattformen und -services nimmt stetig zu. Der Umfang von Storage und Datenverarbeitung, gerade auf Cloud Computing-Plattformen, wäre vor wenigen Jahren noch unvorstellbar gewesen. 41 Prozent der in der Studie befragten Firmen speichern schon jetzt mehr als die Hälfte ihrer Daten in der Cloud. Und die Spitze ist noch immer nicht erreicht: 451 Research geht sogar davon aus, dass es in zwei Jahren schon bis zu 73Prozent der Teilnehmer sein werden.

Ineffizient und unproduktiv
Während die Speicherung, Verarbeitung und Analyse größerer Datenmengen enorme Wettbewerbsvorteile bringen können, bedeuten mehr Daten auch mehr Herausforderungen für Datenmanagementprozesse. Das gilt insbesondere für die Bereitstellung und das Management von Datenverwaltungsumgebungen: Agile Entwicklungs- und DevOps-Praktiken ermöglichen es Unternehmen zwar neue Anwendungsumgebungen viel schneller als je zuvor zu entwickeln und bereitzustellen. Die Bereitstellung von Daten zur Unterstützung dieser Anwendungen bleibt aber weiterhin ein Engpass für die betriebliche Effizienz.

So gaben 78 Prozent der Umfrageteilnehmer an, dass es in ihrem Unternehmen mindestens vier Tage dauert, bis eine neue Umgebung für das Datenmanagement zur Verfügung steht. Diese Verzögerung bleibt nicht ohne Folgen und wirkt sich negativ auf die Effizienz, Produktivität und IT-Sicherheit einer Firma aus.

Eines der größten Hindernisse, die Unternehmen überwinden müssen, betrifft somit die Daten selbst: Wie können sie effizient verwaltet werden? Dies ist eine uralte Herausforderung, die durch das zunehmende Tempo und Volumen der Datengenerierung noch einmal komplizierter wird.

Der Datendschungel und seine Folgen
Eine ineffiziente, starre und verspätete Datenbereitstellung beeinflusst alle Aspekte des Datenmanagements. Sie verhindert oder verzögert beispielsweise von vornherein den Zugang zu benötigten Daten. Durch verschleppte Migrationsprozesse liegen Daten schutzlos brach, bevor sie in eine neue Umgebung integriert werden – was neben Ineffizienz auch ein signifikantes Risiko darstellen kann. Weiterhin kann die Firma in diesem Zustand der Komplexität verschiedener Datenformate, die in Zeiten von Hybrid- und Multi-Cloud-Umgebungen immer wichtiger werden, nicht gerecht werden.

Wie kann DataOps helfen?
Die Studie zeigt auf, dass 92 Prozent der befragten Führungskräfte zustimmen, dass DataOps einen positiven Einfluss auf den Erfolg ihres Unternehmens hat. 86Prozent der Teilnehmer wollen innerhalb des nächsten Jahres sogar noch einmal verstärkt in die zugrundeliegenden Technologien investieren. Aber was macht diesen neuen Ansatz im Datenmanagement aus, und wie hilft er Unternehmen?

DataOps entstand ganz ähnlich wie DevOps aus dem Bedürfnis heraus, eine bessere Koordination und Kooperation zu ermöglichen. Allerdings nicht nur für Entwickler untereinander, sondern aller beteiligten Menschen, Prozesse und Technologien. Der Ansatz will agile und automatisierte Ansätze für das Datenmanagement in Firmen fördern und so helfen, die Geschäftsziele erreichen. Den Schlüssel dazu bildet ein möglichst unkomplizierter Zugriff auf Unternehmensdaten, um so den Anforderungen der beteiligten Interessengruppen in der Datenlieferkette (Entwickler, Datenwissenschaftler, Business-Analysten, DevOps-Experten usw.) gerecht zu werden und gleichzeitig eine breite Palette von Anwendungsfällen zu unterstützen.

DataOps reformiert also das gesamte Datenmanagement. Es werden möglichst viele Prozesse automatisiert sowie gezielt mit Tools und Services ergänzt, die das Datenmanagement vereinfachen und übersichtlicher machen. Hier haben Unternehmen eine große Auswahl sowie Potenzial für individuelle Gestaltung. Mit dem eigens zusammengestellten Lösungspaket können Firmen sich anschließend einen sicheren Pfad durch den Datendschungel bahnen und den heutigen wie zukünftigen Anforderungen an Effizienz, Produktivität und Agilität im Datenmanagement wieder gerecht werden.

Ordnung trotz Komplexität
Die aktuelle Studie von 451 Research beweist eindrücklich: DataOps hat Zukunft. Denn mit der fortlaufenden Weiterentwicklung der zugrunde liegenden Technologien werden Unternehmen aus diesem Ansatz immer mehr Vorteile ziehen können. Und mit möglichst geringen Reibungsverlusten im Datentransfer und einer zeitnahen Datenbereitstellung sind Firmen bestens gerüstet, um auch im Zeitalter der digitalen Wirtschaft die geforderte Agilität für Innovationen zu erreichen. (Delphix: ra)

eingetragen: 29.03.19
Newsletterlauf: 18.04.19

Delphix: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Hintergrund

  • Virtuelle Desktop-Workspaces

    Nach den ersten hektischen Umstellungen auf Remote-Arbeitsplätze suchen viele Unternehmen nun eine nachhaltige tragbare Lösung für Remote Access. Sie wollen erreichen, dass ihre Mitarbeiter - falls nötig - auch längerfristig den täglichen Geschäftsbetrieb sicher von zu Hause aus weiterführen können. Dafür eignen sich ideal Desktops as a Service. Das ist eine Virtual-Desktop-Infrastructure (VDI)-Lösung, die sich schnell beispielsweise mit AWS WorkSpaces realisieren lässt. Jeder Mitarbeiter bekommt dort seinen eigenen virtuellen Desktop (Workspace) zur Verfügung gestellt. Alle virtuellen Desktops sind im eigenen privaten Netzwerk (Virtual Private Cloud, VPC) des Unternehmens. Dadurch sind sie vollständig isoliert vom Internet. Über einen sicheren Tunnel (IPSec) können sie sich mit der bestehenden Infrastruktur des Unternehmens verbinden.

  • Erfolgreiche digitale Transformation

    Unternehmen stehen mehr denn je unter immensem Druck, ihre Digitalisierung voranzutreiben, um in Zukunft flexibler und agiler operieren und schlagkräftiger auf Veränderungen reagieren zu können. Im Zuge der digitalen Transformation bietet eine Integration-Platform-as-a-Service (iPaaS) eine moderne Möglichkeit, Integrationsprojekte zu realisieren. Dies wird durch zentrale Entwicklung, Bereitstellung, Verwaltung und Überwachung von Integrationsprozessen auf einer Cloudplattform erreicht, die Datenquellen sowohl in der Cloud, als auch On-Premise verbinden. Das Ziel ist, alle Systeme und Endpunkte strategisch miteinander zu verknüpfen, sodass sie problemlos zusammenarbeiten können. Doch welche Kriterien muss iPaaS im Detail erfüllen?

  • Der Cloud Act ist eine ganz reale Gefahr

    Der US Cloud Act ist eine immense Bedrohung für unseren gesamteuropäischen Wirtschaftsraum. Auf seiner Grundlage können US-amerikanische Behörden von Cloud-Providern aus den USA die Herausgabe sämtlicher Daten einer Person oder eines Unternehmens verlangen. Das gilt selbst dann, wenn sie sich auf Servern befinden, die in Deutschland oder der EU stehen - DSGVO-Hoheitsgebiet hin oder her. Häufig wird hier der Begriff "regionale Datenhaltung" verwendet, um deutsches Datenschutzrecht zu suggerieren - freilich ohne dabei das Durchgriffsrecht der US-Regierung zu benennen.

  • Der Mitarbeiter im Fokus der Cloud

    Cloud Computing verändert die Unternehmen und die Arbeitswelt. Die langjährige Skepsis der Deutschen gegenüber der Cloud ist vielerorts überwunden. Laut einer Bitkom-Studie setzten über 80 Prozent der großen Unternehmen bereits auf die Cloud. In der Praxis hat sich gezeigt, dass Flexibilität, Agilität, Skalierbarkeit und Kosteneffizienz gewichtige Vorteile der Cloud sind. Mitarbeiter können in der Wolke effektiver und entspannter arbeiten und das von jedem Ort der Welt aus. Die Marktforscher von Gartner haben dafür den Begriff "People-Centric Business" geprägt. Unternehmen werden künftig nur dann erfolgreich sein, wenn sie ihre Mitarbeiter in den Mittelpunkt ihrer Anstrengungen stellen und dabei die Vorteile nutzen, die die Cloud bietet. Die IT-Services-Marke der ManpowerGroup begleitet Kunden auf allen Schritten dieser digitalen Transformation.

  • Die Cloud ist bereits der Standard

    Schon längst nutzen die meisten Unternehmen flexible Cloud-Technologien, um ihre IT zu modernisieren. Die Cloud Computing-Angebote sind mittlerweile schon so weit ausgereift, dass viele Organisationen sogar eine "Cloud-First"-Strategie folgen. Das heißt, dass sie von vorneherein eher Cloud Computing-Dienstleistungen nutzen, anstatt eigene Systeme anzuschaffen. Die meisten Unternehmenslenker und IT-Manager wähnen sich bei ihren Bemühungen zur Modernisierung mit dieser Strategie auf der sicheren Seite. Beim genauen Hinsehen fällt jedoch auf, dass der Schritt in die Cloud gut vorbereitet sein muss, damit Organisationen nicht veraltete Prozesse mit in die Cloud nehmen - und somit einen Teil der gewünschten Verbesserungen zunichte machen.

  • Cloud-Services: Basis für digitale Transformation

    Quo vadis, IT? Der Buzzwords-Dschungel ist auch in diesem Frühjahr ziemlich dicht. Doch welche Trends sind für Unternehmen unmittelbar relevant? Ana Campos und Gerald Klump, Co-CEOs von Trivadis, haben die Antworten. Hochautomatisierte Datenplattformen, IT als Innovationspartner, Everything-as-a-Service, Trend-Radar als Kompass und Agilität im ganzen Ökosystem - das waren die Trivadis IT-Trends 2019. Für 2020 hat das IT-Dienstleistungsunternehmen diese Trends aktualisiert und weiterentwickelt. Sie stehen auch in diesem Jahr nicht für sich allein. Erst in Kombination können die beschriebenen Technologien bestmöglich genutzt werden: 2019 identifizierte Trivadis bereits den Trend zur Automatisierung, insbesondere von Datenplattformen. Dieser Trend wird sich in Form von Hyperautomatisierung noch weiter verstärken. Darunter versteht man die Erweiterung bestehender Automatisierungsfunktionen - etwa in Form von Robotic Process Automation (RPA) - um Technologien wie künstliche Intelligenz (KI) und maschinelles Lernen (ML). Auch für Gartner ist Hyperautomatisierung der wichtigste Technologie-Trend 2020. "Mit Hyperautomatisierung können insbesondere sich wiederholende Prozesse ohne menschliches Zutun effizient abgewickelt werden, so zum Beispiel in der Software-Entwicklung. Dies gibt Mitarbeitenden mehr Freiraum, sich um kreative oder komplexe Aufgaben zu kümmern - was das Unternehmen letztlich wettbewerbsfähiger macht", erklärt Ana Campos.

  • Gründe für Data-Warehouse-Modernisierung

    WhereScape stellt die Ergebnisse einer weltweiten Studie des Business Application Research Center (BARC) zum Thema "Modernisierung des Data Warehouse: Herausforderungen und Vorteile" vor. Im Rahmen der Umfrage wurden 368 Nutzer aus einem breiten Spektrum verschiedener Positionen, Branchen und Unternehmensgrößen zu den wichtigsten Trends für die Modernisierung des Data Warehouse befragt. Diese Modernisierung steht bei vielen der Befragten (39 Prozent) hoch auf der Prioritätenliste, um der zunehmenden Komplexität der Datenlandschaft entgegenzuwirken und ihre Infrastruktur und internen Prozesse agil halten zu können. Als der wichtigste Modernisierungsansatz des Data Warehouse- und ETL wird die Automatisierung angesehen. 60 Prozent der Befragten sehen sie als wichtigste Maßnahme zur Modernisierung des Data Warehouse an.

  • KI und Machine Learning spielen wichtige Rolle

    Die Digitalisierung schreitet unaufhaltsam voran, die Datenmengen vervielfachen sich und immer mehr Daten sollen nicht nur einfach gespeichert, sondern auch analysiert werden. Damit Unternehmen auch in naher Zukunft den Wert der Daten noch voll ausschöpfen können, sollten sie bei der gegenwärtigen Storage-Technik stets mithalten und diese Trends berücksichtigen: Ein Hemmschuh für die Modernisierung von Speicher-Infrastrukturen ist häufig das hardwarezentrierte Denken. Daten liegen meistens auf diskreten Speichersystemen, die nur bedingt oder gar nicht kompatibel zueinander sind. So eine Heterogenität führt zu Problemen bei der Datenmigration sowie zu Verwaltungs- und Kostenineffizienz. Heutzutage befreit Software-Defined Storage (SDS) die IT von dieser Abhängigkeit. SDS-basierte Lösungen können mehrere Arten von Speichern, Anbietern, Protokollen und Netzwerkschnittstellen abstrahieren. Speichern ist dann einfach Speichern und keine komplexe Kompatibilitätswissenschaft mehr.

  • Enterprise Applications in der Cloud

    Enterprise Applications sind das Herz der Unternehmens-IT. Sie bilden die wichtigen Geschäftsprozesse ab, sammeln dafür geschäftskritische Daten und werten diese aus. Priorität hat daher die Sicherheit und Integrität der Daten. Diese dürfen beim Speichern, Archivieren und Transport zwischen den Systemen für Enterprise Resource Planning (ERP), Customer Relationship Management (CRM), Contract Lifecycle Management (CLM) oder Product Information Management (PIM) nicht verloren gehen. Deshalb müssen Unternehmensanwendungen hochverfügbar sein. Um die hohen Qualitätsansprüche von Enterprise Applications an das Datenmanagement zu gewährleisten, fordern viele Hersteller eine Zertifizierung von Storage-Lösungen für diesen Anwendungsfall. Aktuelle Entwicklungen erhöhen zudem die Anforderungen, um Enterprise Apps schnell den nötigen Datenzugriff zu verschaffen.

  • Fünf Trends, die die Sourcing-Strategie bestimmen

    Der Einsatz von Cloud Computing ist im Jahr 2020 gelebte Praxis. Aufgrund der Einfachheit und Skalierbarkeit solcher Angebote stellen sich immer mehr Mittelständler und Konzerne die Frage, ob sie weiter inhouse das Rechenzentrum betreiben oder Dienste in die Cloud auslagern wollen. Wichtige Aspekte bei solchen Prozessen sind die Berücksichtigung von IT-Sicherheit und die Wahrung der digitalen Souveränität. Für den ITK-Service-Provider Pfalzkom sind aber auch Cybersicherheit, Edge Computing, hybride Architekturen, Nachhaltigkeit sowie der War for Talents wichtige Themen, die den Markt in den kommenden Jahren verändern werden.