- Anzeige -


Sie sind hier: Startseite » Fachartikel » Grundlagen

DevOps gegen IT-Operations


Wie IT-Operations mit dem Wechsel zu einer Enterprise-Cloud-Plattform die fünf Herausforderungen einer für DevOps geeigneten Infrastruktur meistern kann
Dank Snapshots, Cloning und Replikation können moderne Enterprise-Cloud-Systeme die Erstellung von Datenkopien unterstützen

- Anzeigen -





Von Christopher Knörle, Tintri

Ein IT-Infrastrukturteam hat es heutzutage nicht leicht. Einerseits muss es den Betrieb des herkömmlichen Rechenzentrums aufrechterhalten, gleichzeitig soll es die strategische Digitalisierung des Unternehmens vorantreiben. Als wenn das nicht schon Herausforderung genug wäre, sollen die IT-ler zusätzlich komplett neue Technologien bereitstellen, um die neuen DevOps-Kollegen bestmöglich bei Neuerungen und schnelleren Release-Zyklen zu unterstützen.

Anforderungen von DevOps an eine flexible und automatisierte Unternehmensinfrastruktur sind nicht immer einfach zu erfüllen und so wird der Trend zu DevOps für Infrastrukturteams eine zusätzliche Belastung. Prallen doch die unterschiedlichen Welten der IT-Operations und des DevOps-Teams aufeinander.

DevOps versus IT-Operations
IT-Operations verfügt beispielsweise über umfangreiche Erfahrung mit herkömmlicher Speicherhardware und legt bei der Verwaltung derer naturgemäß hohen Wert auf beschleunigte Release-Zyklen, Verfügbarkeit, Zuverlässigkeit und ein optimiertes Datenmanagement. Entwickler hingegen denken kaum darüber nach, welche Technologien erforderlich sind. Sie konzentrieren sich eher darauf, Testdaten anhand der laufenden Produktionsdaten aktuell zu halten und bei Bedarf mühelos Zugang zu Ressourcen für ihre Arbeit zu erhalten.

Vor diesem Hintergrund kann die Auswahl der richtigen Infrastruktur viel dazu beitragen, beiden Seiten die Arbeit zu erleichtern. Kernpunkt bei der Auswahl ist, dass die Infrastruktur im Ansatz der Cloud gleichkommt, was das Management von Unternehmens- und Cloud Computing-Anwendungen enorm erleichtert. Um die Cloud Computing-Infrastruktur eines Unternehmens so zu gestalten, dass sie auch für ein DevOps-Modell geeignet ist, müssen die folgenden fünf Herausforderungen bewältigt werden:

1. Management von Datenkopien
Das Management von Datenkopien stellt dem DevOps-Team aktuelle "virtuelle" Kopien bereit. Dies macht eine physische Duplizierung von Daten überflüssig, entlastet den Produktionsspeicher und sichert die Performance von Anwendungen.

2. Datensicherheit und Disaster Recovery
Dank Snapshots, Cloning und Replikation können moderne Enterprise-Cloud-Systeme die Erstellung von Datenkopien unterstützen. Dieselben Technologien ermöglichen es, den für die Entwicklung genutzten Teil der Umgebung im Hinblick auf Ausfälle oder Datenbeschädigungen zu schützen und zu verwalten.

3. Quality of Service (QoS) und Performancegarantien

QoS und Performancegarantien sind bei der Einführung von DevOps ein wichtiges Thema. Mit QoS kann die IT die Kontrolle darüber erlangen, wie die Performance eines Speichersystems unterschiedlichen Workloads zugewiesen wird. Mit QoS kann sowohl ein Maximum als auch ein Minimum für die Nutzung von IOPS oder Bandbreite auf VM-Ebene festgelegt werden. Dank der hohen Leistung reiner Flash-Speicherlösungen können DevOps und die Produktion auf derselben Plattform konsolidiert werden. Dies erleichtert den Zugriff auf Datenmengen aus der Produktion und verringert den generellen Speicherbedarf.

4. Überwachung und Problembehebung
Die Möglichkeit, die Infrastruktur zu überwachen sowie Probleme und Konfigurationsfehler schnell zu korrigieren, ist sehr wertvoll, wenn zu einer integrierten DevOps-Umgebung mit kontinuierlicher Bereitstellung gewechselt wird. Im Idealfall sollte eine Enterprise-Cloud-Plattform fortschrittliche Überwachungsfunktionen, vorausschauende Analysen, eine Integration in andere Monitoringlösungen und Verwaltung auf VM-Ebene bieten.

5. Automatisierung
Außerdem ist die Möglichkeit unerlässlich, die IT-Infrastruktur automatisiert zu provisionieren und zu verwalten. Mithilfe der Automatisierung können Unternehmen Umgebungen bedarfsgesteuert hoch- und wieder herunterfahren, fortschrittliche Funktionen wie Snapshots und Cloning in tägliche Workflows einbeziehen, und das Fehlerpotenzial manueller oder interaktiver Konfigurationsvorgänge eliminieren.

Unternehmen nutzen immer häufiger eine Mischung aus virtueller und physischer, lokaler und Cloud-basierter IT. Das Infrastrukturteam muss in der Lage sein, alle diese Ressourcen zu verwalten, zu steuern und sie zugleich zahlreichen unterschiedlichen Anforderungen zuzuordnen. Durch die Implementierung einer Enterprise-Cloud-Plattform kann das Infrastrukturteam sicherstellen, dass DevOps seine Ziele erreichen kann, ohne von Problemen der Performance, Skalierbarkeit, Verwaltbarkeit, Ausfallsicherheit oder Flexibilität aufgehalten zu werden.

Als Bonus kann eine solche Plattform sogar die Möglichkeit bieten, für alle Abnehmer von IT-Ressourcen ein Self-Service-Portal einzurichten, dass die manuelle Provisionierung von Diensten überflüssig macht.

Eine der besten Möglichkeiten dies zu erreichen besteht darin, die Agilität der öffentlichen Cloud im Rechenzentrum nachzustellen und so das Management von Unternehmens- und Cloud-Anwendungen zu erleichtern. Speicher, konzipiert für Virtualisierung und die Cloud, kann LUNs und Volumes überflüssig machen, indem er es Organisationen ermöglicht, auf der VM- und Containerebene zu arbeiten.

Mit REST-APIs kann man außerdem All-Flash-Speicher mit Computing-, Netzwerk- und anderen Elementen der Cloud verbinden, sodass der Speicher in der gesamten Infrastruktur sichtbar und zugänglich ist. Mit diesem Ansatz unterstützt man das DevOps-Modell und erleichtert dem Infrastrukturteam die Arbeit in vielerlei Hinsicht - nicht nur für DevOps, sondern auch für die zukünftige Cloud Computing-Strategie und viele Elemente der Digitalisierung. (Tintri: ra)

eingetragen: 23.08.17
Home & Newsletterlauf: 23.08.17

Tintri: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Grundlagen

  • Automatisierte Speicherrichtlinien & Daten-GPS

    Die Globalisierung hat die Welt schrumpfen lassen. Nicht nur Reisende ziehen heute rund um den Globus, auch Daten sind dank Cloud Computing äußerst mobil und werden von Unternehmen aus den unterschiedlichsten Gründen zwischen Rechenzentren verschoben. Wir Menschen fühlen uns im eigenen Zuhause am sichersten. Auch für Unternehmensdaten gilt, dass das Risiko sie bei der Migration über Ländergrenzen hinweg zu verlieren, natürlich steigt. Als Mensch ist es heute mittels GPS sehr einfach, einen Standort zu bestimmen. Damit auch Unternehmen immer genau wissen, wo ihre Daten physisch gespeichert sind, bieten sich dank automatisierten Speicherrichtlinien und einem Daten-GPS neue Methoden, den exakten Standort von Daten festzulegen.

  • Mit SaaS & HaaS die IT-Abteilung entlasten

    In vielen Unternehmen stehen CIOs vor der Aufgabe, mit einer sich rasch entwickelnden IT-Welt Schritt halten zu müssen. Hinzu kommt, geeignetes Personal mit dem entsprechenden Know-how zu finden und sich stets gegen zunehmende Sicherheitsrisiken zu wappnen. Diese Herausforderungen beanspruchen zeitliche und finanzielle Ressourcen in der IT-Abteilung, die Unternehmen an anderer Stelle dringender bräuchten. Im Rahmen von Managed Services wie Software-as-a-Service (SaaS) und Hardware-as-a-Service (HaaS) werden Standardaufgaben an externe Dienstleister ausgelagert. Das schafft Freiräume und entlastet die IT-Abteilung. Welche Fragen sind relevant, um zu erkennen, ob auch das eigene Unternehmen von Managed Services profitieren kann.

  • Die Zukunft des File Sharing

    Um den Austausch von Forschungsdaten zwischen verschiedenen Teams am CERN zu ermöglichen, erfand Tim Berners-Lee in den achtziger Jahren, als Nebenprodukt sozusagen, das Internet. Heute ist das Internet die tragende Säule der weltweiten Kommunikation und aus unserem digitalen Leben nicht mehr wegzudenken. Überraschenderweise hat sich seit den frühen Tagen des Internets kaum etwas verändert: Nach wie vor werden für die Übermittlung von Dateien Protokolle aus den Anfangstagen des Internets genutzt. Zum damaligen Zeitpunkt war jedoch eine Welt, in der Datenmengen exponentiell wachsen, Hacker an allerlei Daten interessiert sind und Organisationen in denen zehntausende Mitarbeiter täglich millionenfach Dateien teilen, noch nicht vorstellbar. Worauf sollten Unternehmen also achten, wenn sie eine zukunftssichere File Sharing-Lösung nutzen möchten? Und welche neuen Technologien halten Einzug um Filesharing sicherer, komfortabler und schneller zu machen?

  • File Sharing im Unternehmen: Strategie gesucht

    Um Daten auszutauschen setzen die meisten Unternehmen noch immer auf die gute alte E-Mail, auch wenn diese Technologie offensichtlich nicht mehr auf dem neuesten Stand der Technik ist. Auch das ebenso veraltete FTP ist noch weit verbreitet, wenn es darum geht größere Dateien zu übermitteln. Den IT-Alptraum perfekt machen, intern oft nicht überwachte, File-Sharing-Dienste in der Cloud a la Dropbox & Co. Um striktere Compliance-Vorgaben zu erfüllen und die offensichtlich nicht gegebene Datensicherheit für ihr Unternehmen zu gewährleisten suchen IT-Verantwortliche suchen händeringend nach eine umfassenden Strategie um die genannten, unzuverlässigen Werkzeuge zu ersetzen und somit die Kontrolle über ihre sensiblen Daten zurückzugewinnen.

  • Privacy Shield und die Folgen

    Am 1. August 2016 trat das neue Privacy Shield-Abkommen in Kraft, das für Kunden und Anbieter von Cloud Computing-Services wieder Rechtssicherheit bieten und den transatlantischen Datenfluss wiederherstellen soll. Ob Privacy Shield die Nutzer besser schützen wird als der Vorgänger Safe Harbor wird von vielen Experten jedoch bezweifelt. Auch Subhashini Simha von Thru zweifelt das Abkommen an. Ihre Einschätzung der Folgen von Privacy Shield für Unternehmen hat sie in diesem Artikel zusammengefasst. Demnach benötigen Unternehmen zukünftig mehr denn je Flexibilität ihre Daten im Notfall auch im eigenen Rechenzentrum zu hosten und sie bei sich ändernder Rechtslage aus anderen Regionen abzuziehen.

  • Herausforderungen im Wissensmanagement

    Der Erfolg eines Projekts hängt von vielen Faktoren ab: Unterstützung durch das Top-Management, entsprechende Organisationsstrukturen sowie qualifizierte Mitarbeiter. Zudem spielt Wissen eine wichtige Rolle im Projektmanagement: Welche Methode eignet sich für das Projekt? Mit welchen Maßnahmen lässt sich das Projektziel erreichen? Wie können die Projektanforderungen erfüllt werden? Diese und weitere Fragen müssen Projektleiter beantworten können. Das Problem: Oftmals sind sich diese gar nicht bewusst, was sie und ihre Mitarbeiter wissen oder eben auch nicht wissen. Ein professionelles Wissensmanagement kann das Projektmanagement wirkungsvoll unterstützen, indem es vorhandenes Wissen bündelt, neue Erkenntnisse aufnimmt und alles für zukünftige Projekte verfügbar macht.

  • Unified Communications & Cloud-Kommunikation

    Den Begriff "Unified Communications" (UC) gibt es schon seit vielen Jahren. Er bezeichnet die Integration von Kommunikationsmedien in einer einheitlichen Anwendungsumgebung. Durch die Zusammenführung verschiedener Kommunikationsdienste soll UC die Erreichbarkeit der Kommunikationspartner verbessern und damit die Geschäftsprozesse beschleunigen.

  • Multi Cloud Sourcing

    Die Vorteile von Cloud Computing sind inzwischen bekannt: hohe Flexibilität und Skalierbarkeit zu genau kalkulierbaren Kosten. Doch wer Dienste von mehreren Anbietern nutzt, steht schnell vor einem Problem. Er muss die nötigen Informationen jedes Mal neu übertragen, wodurch unterschiedliche Datenbestände und Mehraufwand für das Management entstehen können. Ein einfaches Springen von Wolke zu Wolke ermöglicht Multi Cloud Sourcing. Für viele Unternehmen ist die Hybrid Cloud attraktiv. Sie kombiniert Skalierbarkeit mit Effizienz und verspricht zusätzlich Kostenersparnisse. Denn die Kunden müssen keine teuren Kapazitäten für Spitzenzeiten bereithalten, die im Rest des Jahres nicht genutzt werden.

  • Cloud als Backup-Speicher

    Rasant wachsende Datenmengen sowie die steigende Abhängigkeit der Unternehmen von ihren operativen Daten setzen die IT-Abteilung gewaltig unter Druck. CIOs müssen daher ihre Strategie für das Datenmanagement den veränderten Realitäten anpassen. Ein mögliches Werkzeug hierfür sind IT-Ressourcen aus der Cloud, die in die Backup- und Storage-Infrastruktur eingebunden werden. Die IT-Abteilung kann es sich nicht mehr leisten, auf die Cloud zu verzichten. Immer mehr Unternehmen in Deutschland setzen mittlerweile auf diese Technologie. In der Studie "Cloud-Monitor 2015" von KPMG und Bitkom vermelden die Analysten, dass bereits 44 Prozent der deutschen Unternehmen IT-Leistungen aus der Cloud beziehen. Weitere 24 Prozent planen oder diskutieren noch über den Einsatz. Dabei sind die gemachten Erfahrungen durchweg positiv, wie bis zu 78 Prozent der Befragten berichten.

  • Mit Cloud-Datenbanken vertraut machen

    In IT-Abteilungen vollzieht sich der größte Umbruch seit Einführung des PC und die modernen Rechenzentren müssen weiterentwickelt werden, um mit dieser Entwicklung Schritt zu halten. Dies ist besonders kritisch, da die IT für fast alle Geschäftsfunktionen eine immer wichtigere Rolle spielt. Unternehmen jeder Größe nutzen alle verfügbaren Technologien und Best Practices, um die Abläufe zu optimieren und Ineffizienzen zu reduzieren, und für viele bedeutet dies in erster Linie zwei Dinge: Virtualisierung und Cloud Computing. Jede IT-Abteilung versucht Zeit zu sparen, die Produktivität zu steigern und Abläufe zu optimieren. Mithilfe der Cloud und der Virtualisierung können in diesem Zusammenhang diese Komponenten nun im gesamten Unternehmen effizienter gestaltet werden.