- Anzeige -


Sie sind hier: Startseite » Fachartikel » Grundlagen

PEP-Technologie für die Cloud


Die Verwaltung von Applikationen – unternehmensweit und in der Cloud
PEPs und Monitoring sind für die Cloud Governance von äußerster Wichtigkeit


Autor K. Scott Morrison:
Autor K. Scott Morrison: Die Cloud offenbart neue Herausforderungen, Bild: Layer 7 Technologies

Von K. Scott Morrison (*)

(09.05.11) - Für Firmen, die ihren IT-Aufwand verringern möchten, stellt Cloud Computing eine attraktive Möglichkeit dar, die jedoch auch viele Herausforderungen birgt. Einige Führungskräfte befürchten, dass sie die Kontrolle über hochgeladene Anwendungen und Daten verlieren und sehen zudem die Sicherheit der Daten gefährdet. Um diesen Befürchtungen begegnen zu können, ist es daher unabdingbar, dass IT-Verantwortliche die Cloud betreffende Aktivitäten einer strengen Kontrolle und Aufsicht unterziehen. Die "Cloud Governance", eine logische Fortentwicklung von Strategien der SOA-Governance (Service-orientierte Architektur = SOA), bietet ein Mittel, die Kontrolle über interne und externe Anwendungen und Daten zu behalten. Sie bietet zudem eine vereinheitlichte und anwendungsbezogene Sicht der IT im Datenzentrum sowie in der Cloud.

Traditionell ist das Verwalten von Anwendungen eine Herausforderung, wenn sie beispielsweise von der Entwicklungs- in die Testphase übergehen und schließlich zur Produktion freigegeben werden. Das Problem ist meist nicht der Code der Anwendung, sondern ihre Abhängigkeit von anderen Systemen. Verzeichnisse, Firewalls, Identitäts- und Zugriffsverwaltung, Datensenken, zusätzliche Dienstleister – all diese Faktoren können eine wichtige Rolle beim Betreiben moderner, dezentraler Systeme spielen und beim Durchlaufen des Lebenszyklus einer Anwendung schwierig zu koordinieren sein.

Das Abhängigkeitsproblem wird noch verschärft, wenn die Anwendungen zwischen Unternehmen und Cloud wechseln: Der Anspruch, Flexibilität zu unterstützen, mögliche Vorteile eines Anbieterwechsels, sowie unterschiedliche Ansätze der Identitätsüberprüfung tragen allesamt in der Cloud dazu bei, einfache Migrationslösungen zu verkomplizieren.

Moderne Anwendungen operieren selten allein. Meist handelt es sich um Zusammensetzungen von neuen Codes und der bestehenden Infrastruktur. Anwendungen sind von vielen Faktoren abhängig, wie etwa von der Hardware-Architektur, Bibliotheken und Betriebssystemen. Dies alles erhöht die Komplexität bei der Migration zusätzlich.

Um Abhängigkeiten zu verwalten, haben Unternehmen Verbindungsbeschreibungen parametrisiert und anschließend als Eigenschaften in einer Datei oder im zentralen Register zusammengelegt. Diese Scripts werden dann benutzt, um die Migration voranzutreiben. Scripts werden in der Regel für jede Anwendung manuell codiert. Diese Vorgehensweise beizubehalten, ist aufgrund des damit verbundenen hohen Zeitaufwandes schwierig.

Als Unternehmen begannen, sich SOA-Architekturen zu bedienen, erkannte man, dass viele Abhängigkeiten einer Anwendung mithilfe externer Policy Enforcement Points (PEPs) isoliert werden können. Die PEPs übernehmen die Rolle von Security Gateways und somit die Verantwortung über externe Service-Abhängigkeiten. Abhängigkeiten werden so im gewissen Sinne von einer Einheit zur nächsten weiterdelegiert. Dennoch sind PEPs dafür geschaffen, diese Abhängigkeiten als anwendungsverbundene Elemente zu parametrisieren.

Diese Strategie, die Sicherheit und die Verwaltung auf externe PEPs zu verlagern, hat sich bei lokaler SOA bewährt. Dennoch ist ein lokales SOA-Umfeld zuträglicher, wenn es unter strenger und zentralisierter Kontrolle steht und von Mitarbeitern unterhalten wird, die in Gruppen mit unterschiedlichen Verantwortungsbereichen aufgeteilt sind. In einem solchen Umfeld sind PEPs extrem wirkungsvoll, da sie Verwaltung und Sicherheit von Anwendungen isolieren und beziehungsweise voneinander unabhängig machen. Sie bieten eine einfache Migrationsstrategie für Software innerhalb eines Unternehmens.

Neue Grenzziehung: Die Cloud offenbart neue Herausforderungen
Aufgrund ihrer Flexibilität und Offenheit schafft die Cloud neue Herausforderungen. Auf Infrastrukturen, die zuvor lokal frei zugänglich waren, können Anwendungen in der Cloud eventuell nicht zugreifen. Die Flexibilität kann ebenfalls zum Problem werden, wenn in der Ausführung herkömmlicher Anwendungen auf externe Dienste zugegriffen werden muss.

Die PEP-Technologie ist der erste Schritt, um Anwendungen sicher in die Cloud zu transferieren. In der Umgebung der Cloud ist die PEP-Technologie ein größeres und wichtigeres Thema als Asset-Management. Verwaltungssysteme für die PEPs müssen verfügbar sein, um Fehlerfreiheit zu gewährleisten. Diese Systeme verwalten unternehmenskritische Anwendungen: Verwaltungskomponenten sollten deshalb von jedem einzelnen PEP zugänglich sein, für den Fall dass ein lokales Netzwerk segmentiert, oder ein Cloud-Anbieter nicht erreichbar sein sollte. Zudem sollten PEPs aufgrund von Latenz- und Zuverlässigkeitsproblemen nicht eng an zentrale Repositorien gebunden sein.

PEPs und Monitoring sind für die Cloud Governance von äußerster Wichtigkeit. Mithilfe der PEP-Technologie für die Cloud kann sichere und überwachte Kommunikation zwischen den Vorgängerversionen der Anwendungen in den Unternehmen sowie den neuen Anwendungen in der Cloud gewährleistet werden. PEP ist jedoch nicht nur eine Art der Artikulierung und Durchführung von Sicherheitsvorschriften: Es ist der Zusammenhalt von Systemen. Eine umfassende Policy-Sprache befriedigt gleichermaßen die Ansprüche von Unternehmen und IT, da so Verträge und Abrechnungen auf hoher Ebene zustande kommen, ebenso wie Details auf niedrigerer Ebene, wie beispielsweise dynamisches Routing, die Ausfallsicherung und die Datentransformation.

Das Einsetzen von virtuellen PEPs für Cloud Computing-Anwendungen ermöglicht es Unternehmen, ihre Dienste zu schützen und zu verwalten. PEPs auf Anwendungsebene bieten sichere Zugriffskontrolle und ein tiefgründiges Verständnis über die Benutzung von Strukturen tatsächlicher Services anstelle von virtuellen Maschinen. Dies trägt nicht nur zur Datensicherheit und dem Schutz vor unerlaubten Zugriffen auf Anwendungen bei, sondern stellt gleichzeitig sicher, dass die Verteilung von Anfragen auf virtuelle Anwendungen richtig verwaltet wird.

Obwohl sich aus der Cloud Computing-Herausforderungen entwickeln, bringt sie jedoch auch sichtliche Vorteile – darunter niedrigere Kosten und erhöhte Flexibilität. Bevor Unternehmen Cloud Computing für sich erschließen, sollte jedoch sichergestellt werden, dass Richtlinien für die Regelung und Migration der Anwendungen vorhanden sind. Die SOA lehrt uns, dass der Einsatz von Technologien – wie zum Beispiel die Zusammenlegung von Anwendungen und Abhängigkeiten – der erste Schritt in die Cloud ist. (Layer 7 Technologies: ra)

(*) K. Scott Morrison, Vice President und Chief Architect bei Layer 7 Technologies kann umfangreiche technische und wissenschaftliche Erfahrungen in verschiedenen Branchen und Universitäten vorweisen, darunter etwa eine Position als Senior Architect bei IBM.

Layer 7 Technologies: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Grundlagen

  • Es ist an der Zeit, die Cloud zu dezentralisieren

    Heute beheimatet die Erde 206 souveräne Staaten. Souveränität ist, wie uns das Lexikon erklärt, das "volle Recht und die Macht eines Regierungsorgans über sich selbst, ohne Einmischung von außen". In gewisser Weise hat die in den frühen 2000er Jahren eingeführte Public Cloud die Souveränität vieler Staaten in Frage gestellt: Sie zentralisierte Daten- und Cloud Computing-Services auf sehr effiziente Weise, um Kunden in jeder Ecke der Welt zu bedienen - eine Welt ohne Grenzen. Verbraucher und Unternehmen begrüßten das befreiende Konzept, das sich schnell weiterentwickelte.

  • Cloud-Sicherheit & Shared Responsibility-Modell

    Viele Unternehmen setzen auf eine Kombination verschiedener Backup-Lösungen, häufig über mehrere Standorte hinweg. Im Krisenfall macht es solch eine Strategie jedoch oft schwierig, Dateien zeitnah wiederherzustellen. Dagegen bieten Cloud-integrierte Lösungen einfaches Testen der Disaster-Recovery-Strategie und im Notfall die rasche Rückkehr zum Normalbetrieb. Daten sind für Unternehmen heute wertvolle Rohstoffe und müssen besser gesichert werden als je zuvor. Gerade in Zeiten weltweiter Ransomware-Attacken ist eine profunde Backup- und Disaster Recovery-Strategie daher unabdingbar geworden, um im Krisenfall sofort reagieren zu können und die Geschäftskontinuität zu sichern. Doch bei der Disaster Recovery geht es nicht nur um Ransomware-Bedrohungen und Advanced Threats, sondern ebenso um die Wiederherstellung nach Hardware-Ausfällen von IT-Komponenten wie Servern und Storage-Systemen, aufgrund menschlicher Fehler oder einer Naturkatastrophe.

  • Wächter des Cloud-Datenschatzes

    Im Zuge der Digitalisierung wächst die Datenmenge, die Unternehmen täglich verarbeiten, stetig an. Dies spiegelt sich auch in der gestiegenen Nutzung von Cloud Computing-Anwendungen in den vergangenen Jahren wider. Unternehmensdaten sind rund um die Uhr überall zugänglich, ermöglichen effiziente Arbeitsabläufe und - zumindest auf den ersten Blick - etwas weniger Verwaltungsaufwand für die IT-Abteilung. Dieser Effekt relativiert sich jedoch, wenn man die Cloud Computing-Nutzung unter dem Aspekt der Sicherheit betrachtet. Die damit einhergehenden Risiken und neuen Bedrohungen erfordern fortschrittliche Sicherheitstechnologien, um den Schutz von Unternehmensdaten gewährleisten zu können.

  • Cloud-Sicherheit: Shared Responsibility-Modell

    Viele Unternehmen setzen auf eine Kombination verschiedener Backup-Lösungen, häufig über mehrere Standorte hinweg. Im Krisenfall macht es solch eine Strategie jedoch oft schwierig, Dateien zeitnah wiederherzustellen. Dagegen bieten Cloud-integrierte Lösungen einfaches Testen der Disaster-Recovery-Strategie und im Notfall die rasche Rückkehr zum Normalbetrieb. Daten sind für Unternehmen heute wertvolle Rohstoffe und müssen besser gesichert werden als je zuvor. Gerade in Zeiten weltweiter Ransomware-Attacken ist eine profunde Backup- und Disaster Recovery-Strategie daher unabdingbar geworden, um im Krisenfall sofort reagieren zu können und die Geschäftskontinuität zu sichern.

  • DevOps: Eine Gefahr oder die Zukunft für ITSM?

    Der digitale Wandel beeinflusst die Unternehmenslandschaft stark. Auch im IT-Service-Management stehen Entscheider zahlreichen neuen Herausforderungen gegenüber. Die Verzahnung von Entwicklung und Betrieb, auch Development and Operations, kurz DevOps, spielt eine immer größere Rolle. Häufig stellen sich die Verantwortlichen jedoch eine Frage: Ist DevOps eine Gefahr oder die Zukunft des IT-Service-Managements (ITSM)? Zu den Ursachen für etwaige Bedenken zählt unter anderem die Infragestellung der Stabilität des IT-Betriebes. Angebote aus der Cloud werden mit einem Angriff auf die eigene IT gleichgesetzt und gestandene ITIL-Change-Manager können sich eine weitere Verkürzung und Vereinfachung der Prozesse nicht mehr vorstellen. Dabei lässt sich bei Betrachtung des Bereichs "Entwicklung und Betrieb von Applikationen" feststellen, dass es zahlreiche Gründe gibt, sich mit den Inhalten von DevOps zu befassen. Veränderungen im IT-Service-Management stellen dabei stets eine Notwendigkeit dar.

  • Das WAN weicht in die Wolke

    Unternehmen als abgeschlossene Einheiten sind passé. Neue Arbeitskonzepte wie mobiles Arbeiten oder BYOD lassen Mauern bröckeln - gerade auch im Hinblick auf Unternehmensnetzwerke. Unternehmen mit Niederlassungen oder Filialen im Handel müssen neben stationärer IT wie Kassensystemen auch mobile oder temporäre Geräte ins Netzwerk einbinden, zum Beispiel Digital-Signage-Terminals. Und Kunden setzen meist ein offenes WLAN voraus. Die digitale Transformation stellt neue Herausforderungen an das vormals Hardware-orientierte Wide-Area-Network (WAN)-Management. Software- und Cloud-definierte Ansätze erleichtern die Administration bei gleichzeitig hohen Sicherheitsstandards.

  • DevOps gegen IT-Operations

    Ein IT-Infrastrukturteam hat es heutzutage nicht leicht. Einerseits muss es den Betrieb des herkömmlichen Rechenzentrums aufrechterhalten, gleichzeitig soll es die strategische Digitalisierung des Unternehmens vorantreiben. Als wenn das nicht schon Herausforderung genug wäre, sollen die IT-ler zusätzlich komplett neue Technologien bereitstellen, um die neuen DevOps-Kollegen bestmöglich bei Neuerungen und schnelleren Release-Zyklen zu unterstützen. Anforderungen von DevOps an eine flexible und automatisierte Unternehmensinfrastruktur sind nicht immer einfach zu erfüllen und so wird der Trend zu DevOps für Infrastrukturteams eine zusätzliche Belastung. Prallen doch die unterschiedlichen Welten der IT-Operations und des DevOps-Teams aufeinander.

  • Automatisierte Speicherrichtlinien & Daten-GPS

    Die Globalisierung hat die Welt schrumpfen lassen. Nicht nur Reisende ziehen heute rund um den Globus, auch Daten sind dank Cloud Computing äußerst mobil und werden von Unternehmen aus den unterschiedlichsten Gründen zwischen Rechenzentren verschoben. Wir Menschen fühlen uns im eigenen Zuhause am sichersten. Auch für Unternehmensdaten gilt, dass das Risiko sie bei der Migration über Ländergrenzen hinweg zu verlieren, natürlich steigt. Als Mensch ist es heute mittels GPS sehr einfach, einen Standort zu bestimmen. Damit auch Unternehmen immer genau wissen, wo ihre Daten physisch gespeichert sind, bieten sich dank automatisierten Speicherrichtlinien und einem Daten-GPS neue Methoden, den exakten Standort von Daten festzulegen.

  • Mit SaaS & HaaS die IT-Abteilung entlasten

    In vielen Unternehmen stehen CIOs vor der Aufgabe, mit einer sich rasch entwickelnden IT-Welt Schritt halten zu müssen. Hinzu kommt, geeignetes Personal mit dem entsprechenden Know-how zu finden und sich stets gegen zunehmende Sicherheitsrisiken zu wappnen. Diese Herausforderungen beanspruchen zeitliche und finanzielle Ressourcen in der IT-Abteilung, die Unternehmen an anderer Stelle dringender bräuchten. Im Rahmen von Managed Services wie Software-as-a-Service (SaaS) und Hardware-as-a-Service (HaaS) werden Standardaufgaben an externe Dienstleister ausgelagert. Das schafft Freiräume und entlastet die IT-Abteilung. Welche Fragen sind relevant, um zu erkennen, ob auch das eigene Unternehmen von Managed Services profitieren kann.

  • Die Zukunft des File Sharing

    Um den Austausch von Forschungsdaten zwischen verschiedenen Teams am CERN zu ermöglichen, erfand Tim Berners-Lee in den achtziger Jahren, als Nebenprodukt sozusagen, das Internet. Heute ist das Internet die tragende Säule der weltweiten Kommunikation und aus unserem digitalen Leben nicht mehr wegzudenken. Überraschenderweise hat sich seit den frühen Tagen des Internets kaum etwas verändert: Nach wie vor werden für die Übermittlung von Dateien Protokolle aus den Anfangstagen des Internets genutzt. Zum damaligen Zeitpunkt war jedoch eine Welt, in der Datenmengen exponentiell wachsen, Hacker an allerlei Daten interessiert sind und Organisationen in denen zehntausende Mitarbeiter täglich millionenfach Dateien teilen, noch nicht vorstellbar. Worauf sollten Unternehmen also achten, wenn sie eine zukunftssichere File Sharing-Lösung nutzen möchten? Und welche neuen Technologien halten Einzug um Filesharing sicherer, komfortabler und schneller zu machen?