- Anzeige -


Sie sind hier: Startseite » Fachartikel » Grundlagen

Cloud Computing und Kapazitätsmanagement


Kapazitätsmanagement in der Cloud: Sechs Schritte zum Erfolg
Cloud Computing bringt für die Verwaltung der IT-Infrastruktur neue Herausforderungen mit sich, insbesondere für das Kapazitätsmanagement


Ismail Elmas,
Ismail Elmas, Bisher haben IT-Firmen das Kapazitätsmanagement als eine fest zugeordnete Vollzeitstelle betrachtet, Bild: BMC Software

Von Ismail Elmas, Geschäftsführer BMC Software

(04.10.11) - Cloud Computing verwandelt die IT-Umgebung in eine hochelastische Ressource, die sich schnell und kontinuierlich an sich ändernde Bedürfnisse des Unternehmens anpasst. Dieser Wandel verändert von Grund auf die Art und Weise, in der Unternehmen IT-Dienste anbieten und ermöglicht es, dass die IT besser auf den Bedarf des Unternehmens reagieren kann.

Allerdings bringt Cloud Computing neue Herausforderungen für die Verwaltung der IT-Infrastruktur mit sich, insbesondere für das Kapazitätsmanagement. Um den größten Nutzen aus der Cloud zu ziehen, ist eine kontinuierliche Balance zwischen Auslastung, Kosten und Servicequalität der Kapazitäten erforderlich. Wie erreicht man das? Indem man das Kapazitätsmanagement aus einem isolierten und technisch orientierten Ansatz in einen ganzheitlichen, unternehmerischen Ansatz verwandelt.

Dieser Artikel zeigt sechs wesentliche Schritte auf, die Sie durch diesen Wandel führen. Diese Schritte unterstützen Sie dabei, Ihr Unternehmen so aufzustellen, dass es sämtliche Vorteile Cloud Computing ausschöpfen kann, einschließlich mehr Agilität, höherer Servicequalität und niedrigeren Kosten in der IT.

Die Kehrseite des herkömmlichen Ansatzes im Kapazitätsmanagement
Bisher haben IT-Firmen das Kapazitätsmanagement als eine fest zugeordnete Vollzeitstelle betrachtet, die von spezialisierten Kapazitätsplanern und -analysten besetzt wird. Diese hochqualifizierten Mitarbeiter arbeiten ereignisgesteuert und reagieren auf Ereignisse, wie zum Beispiel die Installation neuer Software oder Veränderungen in der Hardware.

Aufgrund der schieren Größe und Komplexität heutiger Rechenzentren und der kleinen Zahl von Kapazitätsplanern, die üblicherweise in einer typischen IT-Firma arbeiten, müssen sich die Kapazitätsplaner auf unternehmenskritische Systeme konzentrieren und begrenzen. Normalerweise managen diese Planer die Kapazität, indem sie eine isolierte, technisch basierte Herangehensweise wählen und dabei mal die Server, mal den Speicher und wieder ein anderes Mal die Netzwerkhardware im Auge behalten. Das Problem dabei ist, dass wenig Kommunikation zwischen den Gruppen stattfindet und somit ein Kapazitätsplanungsprozess entsteht, der ein Flickwerk von isolierten und häufig manuellen Aktivitäten darstellt.

Herkömmliches Kapazitätsmanagement mag in der Vergangenheit gut gewesen sein. Aber ein herkömmlicher Ansatz ist nicht länger adäquat, wenn Sie den Wechsel zu Virtualisierung und Cloud Computing in Betracht ziehen oder bereits damit begonnen haben. Virtualisierung und Cloud Computing verändern den Charakter der IT-Infrastruktur radikal. Beim Cloud Computing wird die Infrastruktur als Vorrat an Ressourcen betrachtet, die dynamisch kombiniert werden, um Unternehmensdienste nach Bedarf zu liefern und die, sobald nicht mehr benötigt, wieder in den Bestand zurückgeführt werden. Im Wesentlichen ist die Cloud eine Quelle hochelastischer Rechenkapazität, die unabhängig von Ort und Zeit eingesetzt werden kann.

Somit ist das Kapazitätsmanagement entscheidend für eine erfolgreiche Implementierung der Cloud. Die Gesamtkapazität der Cloud muss der dynamischen Zuordnung von Workloads genügen, während gleichzeitig vereinbarte Service Levels aufrecht erhalten werden müssen. Darüber hinaus diese Kapazität ohne übermäßige Anschaffung von Equipment zur Verfügung gestellt werden.

Ein ganzheitlicher Ansatz
Herkömmliches Kapazitätsmanagement ermöglicht nicht die volle Nutzung der bisher unerreichten Elastizität, die durch Cloud Computing ermöglicht wird. Stattdessen brauchen Sie einen ganzheitlichen Ansatz, der alle Ressourcen des Rechenzentrums umfasst (Server, Speicher und Netzwerk) und der die Kapazitätsauslastung mit den unternehmerischen Leistungskennzahlen (KPIs) verknüpft. Die folgenden sechs Schritte sind nötig, um dieser Anforderung gerecht zu werden.

Schritt 1: Von einer engen und reaktiven Perspektive zu einem umfassenden, kontinuierlichen Bild
Die Veränderung Ihres Ansatzes für Kapazitätsplanung erfordert einen zeitlichen und umfänglichen Wechsel. In Bezug auf den Umfang ist es wichtig, den Fokus von unternehmenskritischen Systemen auf die gesamte IT-Infrastruktur zu erweitern. Cloud Computing stellt Ihnen die Gesamtkapazität der ganzen Infrastruktur zur Verfügung, so dass Sie sie einsetzen können, wo und wann sie gebraucht wird. Um alle Vorteile dieser Flexibilität ausschöpfen zu können, müssen Sie wissen, wieviel Gesamtkapazität Ihnen zur Verfügung steht und wie sie verwendet wird.

In Bezug auf die Zeit betrachten Sie die hochdynamischen Eigenschaften der Infrastruktur. Die Restkapazitäten verändern sich laufend als Ergebnis der Veränderungen von Workloads und physikalisch vorhandener Infrastruktur. Daher muss das Kapazitätsmanagement kontinuierlich betrieben werden, nicht nur als Reaktion auf bestimmte Ereignisse.

Schritt 2: Vom technischen Fokus zu einer Ausrichtung auf Unternehmensdienste
Die meisten Unternehmensanwender betrachten die IT-Infrastruktur lediglich als eine Quelle von Unternehmensdiensten. Sie möchten diese Unternehmensdienste anfordern und die Leistung schnell und entsprechend zugehöriger Liefervereinbarungen (SLAs) erhalten. Diese Anwender denken nicht über die zugrunde liegenden System nach, die einen Service ausmachen.

Herkömmlicherweise wurden die Kapazitäten durch die IT aus einer technischen Perspektive heraus verwaltet – man sprach die Sprache der IT-Manager. Beim Wandel zu Cloud Computing muss das Kapazitätsmanagement aus Sicht der Unternehmensdienste betrieben werden und die Sprache der Unternehmensleitung sowie der Anwender gesprochen werden. Ein Kapazitätsplaner sollte Fragen beantworten können wie: "Wieviele zusätzliche Kundenaufträge kann meine Infrastruktur tragen, bevor wir ein Problem mit der Kapazität oder der Reaktionszeit bekommen?".

Um diese Frage beantworten zu können, muss der Kapazitätsplaner die Relation zwischen Kapazität und Unternehmensanforderung verstehen. Das stellt insbesondere in einer Cloud-Umgebung eine Herausforderung dar, bei der die Versorgung mit Unternehmensleistungen die konzertierte Kombination zahlreicher Ressourcen mit sich bringt. Hierzu gehören auch Anwendungen, Server, Speichersystem und Netzwerkkomponenten. Um diese Aufgabe zu stemmen, müssen Sie einen ganzheitlichen Ansatz verfolgen, der alle Systeme und die Anwendungsebene betrachtet, die den jeweiligen Service ausmachen.

Der Wandel von einem technisch ausgerichteten Kapazitätsmanagement hin zu einem Kapazitätsmanagement für Unternehmensdienste erfordert einen entsprechenden Wechsel der zu sammelnden und zu kommunizierenden Metriken. Dieser Wechsel benötigt eine Erweiterung von Analytik und Berichtswesens in Umfang und Reichweite – weg von einer technologischen Metrik hin zu einer Unternehmens-Metrik, so dass der Bedarf des Unternehmens der treibende Faktor für das Kapazitätsmanagement wird.

Daher sollte das Berichtswesen in der Cloud Computing-Umgebung die IT-Ressourcen (physikalische und virtuelle Server, Datenbanken, Anwendungen, Speicher, Netzwerke und Anlagen) mit messbaren Unternehmensdaten wie Kosten und Leistungskennziffern verknüpfen. Diese Verknüpfung erlaubt es der IT, der Unternehmensführung Kapazitätsanliegen in aussagekräftiger Form mitzuteilen. Dadurch kann die Unternehmensleitung eine informierte, kosteneffektive Wahl bezüglich anzufragender Kapazität treffen. Zum Beispiel schreckt es Firmenanwender davor ab, mehr Kapazität zu verlangen als tatsächlich benötigt wird, wenn über das Verhältnis von Workload-Kapazität im Service zu damit verbundenen Kosten gesprochen wird.

Der Wandel hin zur Orientierung an Unternehmensdiensten erfordert einen parallelen Wandel in den Aufgaben und Kompetenzen des Kapazitätsplaners. Anstelle spezialisierter, systemorientierter Kapazitätsplanungsgurus ist ein allgemeiner IT-Anwender gefragt, zum Beispiel ein Cloud-Dienstearchitekt. Dieser Generalist sollte eng mit den Firmenanwendern einerseits und den Infrastrukturexperten andererseits zusammenarbeiten, um den Kapazitätsbedarf basierend auf den Workloads des Unternehmens zu ermitteln.

Schritt 3: Automatisiert anstelle von manuell
Leider ist es in vielen Unternehmen Realität, dass dies Kapazitätsplanung viele manuelle Prozesse erfordert, die sowohl ineffizient als auch zeitintensiv sind. Kapazitätsplaner sammeln z.B. technische Nutzungs- und Leistungsdaten mittels Überwachungsinfrastruktur und importieren diese Daten dann in Excel-Dateien - eine mühselige und zeitraubende Angelegenheit. Die Aufgabe des Datensammelns beansprucht viel Arbeitszeit und lässt wenig Zeit für Analyse und Kapazitätsplanung.

Der herkömmliche, manuelle Ansatz ist mit dem Wandel zu einem an Unternehmensdiensten ausgerichteten Kapazitätsmanagement nicht mehr praktikabel. Das ist deswegen so, weil die Kapazitätsplaner nicht nur die Analyse, den Bericht und die Empfehlungen auf den Level der Unternehmensdienste heben, sondern auch das Berichtswesen von unternehmenskritischen Servern auf die gesamte Infrastruktur ausdehnen müssen. Dies erfordert eine automatisierte Herangehensweise, die Datensammlung, Übersetzung und ein für die Geschäftsleitung aussagekräftiges Berichtswesen umfasst. Dieser höhere Automatisierungsgrad unterstützt die Steigerung von Qualität und betrieblicher Effizienz. Zuletzt steigert die Automatisation auch die Mitarbeiterproduktivität und steigert die Relevanz und Bedeutung des Kapazitätsmanagements für das Unternehmen.

Schritt 4: Von isolierten Prozessen zu integrierten, verteilten Prozessen
Ein Hauptmanko des herkömmlichen Kapazitätsmanagements ist die Tatsache, dass die Kapazitätsplanung und Analyse von einem kleinen Kreis von Planern mit ausschließlich technischem Hintergrund durchgeführt wird, wie zum Beispiel von Spezialisten für Server, Speicher und Netzwerke. Diese Aufteilung erschwert ein gesamtheitlich auf den Service ausgerichtetes Kapazitätsmanagement. Wie kann man zum Beispiel sicherstellen, dass ausreichende Kapazitäten verfügbar sind, um eine durch anstehende Marketingaktivitäten ausgelöste und erwartete Spitze bei den Workloads in einem Auftragserfassungsdienst abzufedern?

Der Umzug in die Cloud erfordert einen Wandel von isolierten Prozessen, die allein von Kapazitätsplanern durchgeführt werden, hin zu integrierten Prozessen, die auf andere IT-Gruppen erweitert und mit diesen geteilt werden, wie zum Beispiel Anwendungsentwickler und Datenbankadministratoren. Dieser Wandel erlaubt es, das Fachwissen der Kapazitätsplaner wirksam einzusetzen und gleichzeitig die Kapazitätsplanung zu einem universellen und verteilten Verantwortungsbereich zu machen, der die Grenzen funktionaler IT-Gruppen überschreitet.

Schritt 5: Von Versuch und Irrtum zu vorhersagender Analyse
Die meisten IT-Firmen gehen schrittweise in Richtung Cloud Computing. Dies umfasst üblicherweise zwei größere Phasen. Die erste Phase betrifft die Migration von physikalischen hin zu virtuellen Systemen. Hier virtualisiert die IT einfach physikalische Systeme mit dem primären Ziel, die Kosten von Rechenzentren zu senken, indem die Anzahl der physikalischen Geräte verringert wird. Vielleicht haben Sie bereits eine virtuelle Serverfarm und möchten einen temporären physikalischen Workload auf diese Farm virtualisieren. Das erreichen Sie, indem Sie herausfinden, welche physikalischen Server-Hosts den oder die zusätzlichen Workloads am besten aufnehmen können.

Die zweite Phase betrifft die Optimierung der virtuellen Arbeitslasten durch Ermittlung ihrer effektivsten Platzierung in der Cloud. Sie können verschiedene Kombinationen in einer Laborumgebung testen - dies wäre jedoch schwierig und teuer in Bezug auf die Umsetzung der tatsächlichen Umgebung im Rechenzentrum. Sie brauchen die Möglichkeit, die Wirkung des Einsatzes verschiedener virtueller und physikalischer Kombinationen in Ihrer Produktionsumgebung zu messen, ohne sie auch atatsächlich einzuführen.

Analyse und "Was-wäre-wenn"-Tools können Sie in beiden Phasen unterstützen. Diese Werkzeuge erlauben Ihnen eine Vorschau auf verschiedene virtuelle und physikalische Konfigurationen und Kombinationen vor der Produktivsetzung. Darüber hinaus gestatten Ihnen Workload-Modelle auch die Folgenabschätzung von Änderungen in der Infrastruktur, ohne dass Sie diese Änderungen tatsächlich ausführen. So lässt sich zum Beispiel ermitteln, wie sich ein Prozessorupgrade eines Servers auswirkt. Im Übrigen hilft Ihnen die Analyse von Workload-Trends dabei, dass benötigte Kapazitäten in der Zukunft verfügbar sind, wenn und wo sie benötigt werden, um einen erwarteten Anstieg zu bewältigen.

Schritt 6: Von der Trennung zur Integration
Effektives Cloud-Management bedeutet einen umfassenden Blick, der sowohl die gesamte IT-Infrastruktur als auch mehrere IT-Fachbereiche umfasst. Dies erfordert die Integration von Tools und Prozessen im Kapazitätsmanagement mit denen des Business Service Management (BSM). BSM ist ein umfassender Ansatz und eine vereinheitlichte Plattform, mit deren Hilfe IT-Unternehmen Kosten sparen, Risiken minimieren und den Unternehmenserfolg beflügeln können.

Die Integration von Kapazitätsmanagementlösungen mit Werkzeugen zur Aufdeckung und Darstellung von Abhängigkeiten liefert Ihnen eine umfassende Darstellung aller physikalischer und virtueller Ressourcen, die gegenwärtig in Ihrem Rechenzentrum eingesetzt werden. So sehen Sie nicht nur, was aktuell eingesetzt wird, sondern verstehen auch, wie dies geschieht.

Durch die Integration von Kapazitätsmanagementlösungen mit Konfigurationsverwaltungsdatenbanken (CMDB) lassen sich die in der CMDB gespeicherten Beziehungen der Unternehmensdienste wirksam für genaue Analyse, Berichte und Planung der Kapazität einsetzen. Die gemeinsame Nutzung der Konfigurationspositionen (CIs) und Beziehungen der Services, die in der CMDB definiert sind, stellt die Durchgängigkeit über mehrere IT-Disziplinen sicher und beseitigt die Notwendigkeit einer doppelten Datenhaltung in mehreren Tools.

Die Integration von Kapazitätsmanagement mit Lösungen des Performance Management gibt Kapazitätsplanern Echtzeitfähigkeit und historische Leistungsdaten zu Unternehmensdiensten. Die Planer können diese Daten wirksam einsetzen, um eine laufende Balance zwischen Leistung und Ressourcennutzung aufrecht zu erhalten.

Durch die Integration der Kapazitätsmanagementprozesse mit den Change-Prozessen und der Konfiguration kann die IT sicherstellen, dass alle Änderungen an der Infrastruktur der Cloud mit Bezug auf die Kapazität entweder automatisch oder manuell in Übereinstimmung mit internen Richtlinien und externen Regelungen vorgenommen werden.

Mit einem übergeordenten BSM-Ansatz (Business Service Management) wird es möglich, das Kapazitätsmanagement mit anderen IT-Disziplinen und Prozessen zu integrieren. Auf diese Weise lassen sich die Unternehmensdienste während ihrer Gesamtlebensdauer effektiv und effizient managen - quer über physikalische, virtuelle und Cloud-basierte Ressourcen.

Schlussfolgerung
Die sechs Schritte unterstützen Sie bei der optimalen Nutzung Ihrer Cloud Computing-Infrastruktur optimal zu nutzen. Es gibt einen Schlüsselerfolgsfaktor für Ihre Cloud Computing-Aktivitäten. Durch den Wandel von einem isolierten und technik-zentrierten Ansatz zu einem ganzheitlichen und unternehmerischen Ansatz für Kapazitätsmanagement positionieren Sie Ihr Unternehmen, so dass Sie das Versprechen des Cloud Computing vollständig einlösen können. (BMC Software: ra)

Die Ergebnisse sprechen für sich
Die BMC-Kunden haben ihre Reise zu Cloud Computing begonnen und profitieren bereits von signifikanten Vorteilen. Ein Beispiel hierzu:

Eine europäische Bank hat einen Kapazitätsmanagementprozess gemäß IT Infrastructure Library (ITIL) zur Verringerung der IT-Kosten und Ermöglichung von Virtualisierung und Cloud-Aktivitäten eingeführt.
Durch den Einsatz von BMC Capacity Management kann die IT die Kapazität effektiv über die gesamte Serverinfrastruktur hin managen und bietet allen Beteiligten geplante Berichte sowie Entscheidungshilfen für Virtualisierungsprojekte. Der Nutzen ist unwiderstehlich und beinhaltet:
>> 30 Prozent geringere Investitionsausgaben
>> Steigerung der Server-Auslastung von 5 auf 15 Prozent bis hin zu 30 bzw. 45 Prozent
>> Optimierte Budgetierung dank umfassender Planung der Infrastruktur

BMC Software: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Grundlagen

  • Das lebende Unternehmen

    Der menschliche Körper ist ein bemerkenswerter Organismus. Ohne hier zu tief in Anatomie und Physiologie des Menschen einzutauchen, gibt es zahlreiche Bereiche, in denen sich der Mensch und die Datenverarbeitung eines Unternehmens stark ähneln. Zwar sind die Systeme des Menschen nicht digital sondern organisch, das Gesamtsystem Mensch funktioniert jedoch ganz ähnlich wie eine Organisation - eine große Anzahl an Informationssystemen laufen parallel und transportieren eine Fülle von Informationen zu jedem Organ. Wenig überraschend, ist der Mensch der IT in Sachen Datenverarbeitung nach vielen Millionen Jahren Evolution um einiges voraus. So funktioniert die Datenverarbeitung des Menschen in den meisten Fällen nicht nur in Echtzeit, sondern auch komplett automatisiert. Hier können Unternehmen ansetzen, um vom Menschen zu lernen und ihre IT in Zeiten der Digitalisierung leistungsfähiger zu machen.

  • Security und Leistung in der Cloud vereinen

    Moderne Anwendungen müssen skalieren und performant sein. Um diese Anforderungen zu erreichen, werden viele Implementierungen auf Public Cloud-Plattformen wie Amazon Web Services (AWS), Microsoft Azure und Google Cloud Platform (GCP) gehostet, was für Elastizität und Geschwindigkeit sorgt. Und die Cloud-Nutzung boomt, mittlerweile setzen zwei von drei Unternehmen in Deutschland Cloud Computing ein, so das Ergebnis einer repräsentativen Umfrage von Bitkom Research im Auftrag der KPMG. Vorteile wie hohe Flexibilität, Effizienzsteigerung der Betriebsabläufe und verbrauchsabhängige Abrechnung von Services liegen auf der Hand.

  • Es ist an der Zeit, die Cloud zu dezentralisieren

    Heute beheimatet die Erde 206 souveräne Staaten. Souveränität ist, wie uns das Lexikon erklärt, das "volle Recht und die Macht eines Regierungsorgans über sich selbst, ohne Einmischung von außen". In gewisser Weise hat die in den frühen 2000er Jahren eingeführte Public Cloud die Souveränität vieler Staaten in Frage gestellt: Sie zentralisierte Daten- und Cloud Computing-Services auf sehr effiziente Weise, um Kunden in jeder Ecke der Welt zu bedienen - eine Welt ohne Grenzen. Verbraucher und Unternehmen begrüßten das befreiende Konzept, das sich schnell weiterentwickelte.

  • Cloud-Sicherheit & Shared Responsibility-Modell

    Viele Unternehmen setzen auf eine Kombination verschiedener Backup-Lösungen, häufig über mehrere Standorte hinweg. Im Krisenfall macht es solch eine Strategie jedoch oft schwierig, Dateien zeitnah wiederherzustellen. Dagegen bieten Cloud-integrierte Lösungen einfaches Testen der Disaster-Recovery-Strategie und im Notfall die rasche Rückkehr zum Normalbetrieb. Daten sind für Unternehmen heute wertvolle Rohstoffe und müssen besser gesichert werden als je zuvor. Gerade in Zeiten weltweiter Ransomware-Attacken ist eine profunde Backup- und Disaster Recovery-Strategie daher unabdingbar geworden, um im Krisenfall sofort reagieren zu können und die Geschäftskontinuität zu sichern. Doch bei der Disaster Recovery geht es nicht nur um Ransomware-Bedrohungen und Advanced Threats, sondern ebenso um die Wiederherstellung nach Hardware-Ausfällen von IT-Komponenten wie Servern und Storage-Systemen, aufgrund menschlicher Fehler oder einer Naturkatastrophe.

  • Wächter des Cloud-Datenschatzes

    Im Zuge der Digitalisierung wächst die Datenmenge, die Unternehmen täglich verarbeiten, stetig an. Dies spiegelt sich auch in der gestiegenen Nutzung von Cloud Computing-Anwendungen in den vergangenen Jahren wider. Unternehmensdaten sind rund um die Uhr überall zugänglich, ermöglichen effiziente Arbeitsabläufe und - zumindest auf den ersten Blick - etwas weniger Verwaltungsaufwand für die IT-Abteilung. Dieser Effekt relativiert sich jedoch, wenn man die Cloud Computing-Nutzung unter dem Aspekt der Sicherheit betrachtet. Die damit einhergehenden Risiken und neuen Bedrohungen erfordern fortschrittliche Sicherheitstechnologien, um den Schutz von Unternehmensdaten gewährleisten zu können.

  • Cloud-Sicherheit: Shared Responsibility-Modell

    Viele Unternehmen setzen auf eine Kombination verschiedener Backup-Lösungen, häufig über mehrere Standorte hinweg. Im Krisenfall macht es solch eine Strategie jedoch oft schwierig, Dateien zeitnah wiederherzustellen. Dagegen bieten Cloud-integrierte Lösungen einfaches Testen der Disaster-Recovery-Strategie und im Notfall die rasche Rückkehr zum Normalbetrieb. Daten sind für Unternehmen heute wertvolle Rohstoffe und müssen besser gesichert werden als je zuvor. Gerade in Zeiten weltweiter Ransomware-Attacken ist eine profunde Backup- und Disaster Recovery-Strategie daher unabdingbar geworden, um im Krisenfall sofort reagieren zu können und die Geschäftskontinuität zu sichern.

  • DevOps: Eine Gefahr oder die Zukunft für ITSM?

    Der digitale Wandel beeinflusst die Unternehmenslandschaft stark. Auch im IT-Service-Management stehen Entscheider zahlreichen neuen Herausforderungen gegenüber. Die Verzahnung von Entwicklung und Betrieb, auch Development and Operations, kurz DevOps, spielt eine immer größere Rolle. Häufig stellen sich die Verantwortlichen jedoch eine Frage: Ist DevOps eine Gefahr oder die Zukunft des IT-Service-Managements (ITSM)? Zu den Ursachen für etwaige Bedenken zählt unter anderem die Infragestellung der Stabilität des IT-Betriebes. Angebote aus der Cloud werden mit einem Angriff auf die eigene IT gleichgesetzt und gestandene ITIL-Change-Manager können sich eine weitere Verkürzung und Vereinfachung der Prozesse nicht mehr vorstellen. Dabei lässt sich bei Betrachtung des Bereichs "Entwicklung und Betrieb von Applikationen" feststellen, dass es zahlreiche Gründe gibt, sich mit den Inhalten von DevOps zu befassen. Veränderungen im IT-Service-Management stellen dabei stets eine Notwendigkeit dar.

  • Das WAN weicht in die Wolke

    Unternehmen als abgeschlossene Einheiten sind passé. Neue Arbeitskonzepte wie mobiles Arbeiten oder BYOD lassen Mauern bröckeln - gerade auch im Hinblick auf Unternehmensnetzwerke. Unternehmen mit Niederlassungen oder Filialen im Handel müssen neben stationärer IT wie Kassensystemen auch mobile oder temporäre Geräte ins Netzwerk einbinden, zum Beispiel Digital-Signage-Terminals. Und Kunden setzen meist ein offenes WLAN voraus. Die digitale Transformation stellt neue Herausforderungen an das vormals Hardware-orientierte Wide-Area-Network (WAN)-Management. Software- und Cloud-definierte Ansätze erleichtern die Administration bei gleichzeitig hohen Sicherheitsstandards.

  • DevOps gegen IT-Operations

    Ein IT-Infrastrukturteam hat es heutzutage nicht leicht. Einerseits muss es den Betrieb des herkömmlichen Rechenzentrums aufrechterhalten, gleichzeitig soll es die strategische Digitalisierung des Unternehmens vorantreiben. Als wenn das nicht schon Herausforderung genug wäre, sollen die IT-ler zusätzlich komplett neue Technologien bereitstellen, um die neuen DevOps-Kollegen bestmöglich bei Neuerungen und schnelleren Release-Zyklen zu unterstützen. Anforderungen von DevOps an eine flexible und automatisierte Unternehmensinfrastruktur sind nicht immer einfach zu erfüllen und so wird der Trend zu DevOps für Infrastrukturteams eine zusätzliche Belastung. Prallen doch die unterschiedlichen Welten der IT-Operations und des DevOps-Teams aufeinander.

  • Automatisierte Speicherrichtlinien & Daten-GPS

    Die Globalisierung hat die Welt schrumpfen lassen. Nicht nur Reisende ziehen heute rund um den Globus, auch Daten sind dank Cloud Computing äußerst mobil und werden von Unternehmen aus den unterschiedlichsten Gründen zwischen Rechenzentren verschoben. Wir Menschen fühlen uns im eigenen Zuhause am sichersten. Auch für Unternehmensdaten gilt, dass das Risiko sie bei der Migration über Ländergrenzen hinweg zu verlieren, natürlich steigt. Als Mensch ist es heute mittels GPS sehr einfach, einen Standort zu bestimmen. Damit auch Unternehmen immer genau wissen, wo ihre Daten physisch gespeichert sind, bieten sich dank automatisierten Speicherrichtlinien und einem Daten-GPS neue Methoden, den exakten Standort von Daten festzulegen.