- Anzeige -


Sie sind hier: Startseite » Fachartikel » Grundlagen

Testverfahren für Cloud Computing-Modelle


Tipps rund um Qualitätsanalysen für die Cloud: Beim Testen von Cloud-Diensten kommen einige bereits bekannte und einige neue Aspekte ins Spiel
Traue keiner Cloud Computing-Anwendung, die du nicht selbst getestet hast!


Tara Van Unen
Tara Van Unen Grundlegende Komponenten im Rechenzentrum müssen auch bei Nutzung einer Cloud Computing-Umgebung Funktionstests unterzogen werden, Bild: Ixia

Von Tara Van Unen, Director Market Development, Ixia

(03.02.12) - In den letzten Jahren sind IT-Organisationen zunehmend dazu übergegangen, Plattformen und Anwendungen in die Cloud zu migrieren. Dabei unterhalten Unternehmen in einigen Fällen weiterhin eigene Cloud-Rechenzentren vor Ort. Oftmals werden dafür die Großeinrichtungen kommerzieller Anbieter von Cloud Computing-Services genutzt. Während die Unternehmen das Konzept "Cloud" mit all seinen Vorteilen gerne annehmen und nutzen, kommt in der öffentlichen Diskussion doch immer wieder die Frage auf, wie zuverlässig eigentlich die Anwendungen sind, die in die Cloud ausgelagert werden.

Der Netzwerk-Tester Ixia geht diesem Aspekt im folgenden Beitrag auf den Grund. Der Text beschreibt den grundsätzlichen Aufbau der unterschiedlichen bestehenden Cloud Computing-Modelle und zeigt auf, wie Performance und Qualität der Anwendungen anhand der passenden Testverfahren kontinuierlich sichergestellt werden können.

Die Möglichkeiten der Cloud sind noch nicht voll ausgeschöpft. Für die meisten Unternehmen steht sie bislang für das Hosten von Diensten, Daten, Ressourcen und Netzwerken an einem "anderen" Standort. Im Gegensatz dazu erwerben, konfigurieren, warten, Unternehmen beim herkömmlichen Rechenzentrumsmodell ihre eigenen Server, Netzwerke und Infrastrukturen. Die Ressourcen der Cloud sind also weiterhin Eigentum des entsprechenden Cloud Computing-Dienstanbieters und werden von diesem gewartet. Unternehmen leihen sich die Ressourcen lediglich.

In der Regel werden drei unterschiedliche Dienste angeboten:

>> Software-as-a-Service (SaaS):
Beispiele hierfür sind u. a. Salesforce.com, Google Apps, SAP, Taleo, WebEx und Facebook. Bei diesem Modell wird von einem beliebigen Punkt im Internet auf vollständige Anwendungen zugegriffen. Die Dienste werden über verteilte Rechenzentren implementiert.

>>Platform-as-a-Service (PaaS):
Beispiele hierfür sind Windows Azure, Google AppEngine, Force.com, Heroku und Sun/Oracle. Hierbei handelt es sich um verteilte Entwicklungsplattformen, die zum Erstellen von in einer Cloud Computing-Umgebung ausgeführten Anwendungen, Webseiten und Diensten genutzt werden.

>>Infrastructure-as-a-Service (IaaS):
Anbieter in dieser Kategorie sind u. a. VMware, Citrix, Dell, HP, IBM, Disco, F5 und Juniper. Diese Unternehmen bieten die grundlegende Infrastruktur für Cloud-Dienste an, die über diverse Cloud-Hosting-Dienste wie Elastic Computing Cloud (EC2) von Amazon verfügbar sind. Inbegriffen sind Virtualisierungsebenen, Datenbanken, Web- und Anwendungsserver, Firewalls, Serverlast-Ausgleicher, WAN-Optimierungen und Switches.

Was spricht für die Cloud?
Einer der wichtigsten Gründe für den Trend, wichtige Anwendungen und Websites in die Cloud zu migrieren, ist die allgemeine Verfügbarkeit von Breitbandnetzwerken wie 10-Gigabit-Ethernet (GE), über die die Verbindung von Unternehmen zu den Sites von Cloud-Dienstanbietern erfolgt.

Die allgemeine Verfügbarkeit von Breitband hat dazu geführt, dass Anwender eine fehlerfreie Bereitstellung von Inhalten mit hoher Auflösung erwarten, für die viel Bandbreite erforderlich ist. In der Regel können Dienstanbieter, die verteilte Cloud-Sites mit schnellen Breitbandverbindungen und hohen Kapazitäten betreiben, diese Anforderung besser erfüllen.
Durch den Einsatz cloudbasierter Infrastrukturen entfällt die Notwendigkeit, lokale Infrastrukturen anzuschaffen, zu verwalten, zu sichern und auf dem neuesten Stand zu halten.

Unternehmen profitieren darüber hinaus von einem Pay-As-You-Go-Modell, bei dem sie nur für tatsächlich genutzte Dienste zahlen, ohne Auslastungsspitzen und Wachstumstrends einplanen zu müssen.

Die Elastizität, Skalierbarkeit und Leistung der Cloud sind sicherlich die attraktivsten Gründe für den Umstieg.

Rechen-, Speicher- und Netzwerkressourcen können von Cloud Computing-Anbietern einfach und schnell bereitgestellt werden, so dass sich interne Anwendungen und externe Websites von Unternehmen nach Bedarf skalieren lassen.

Diese Elastizität sorgt außerdem für die Skalierbarkeit auf praktisch jede beliebige Größe und Leistungsanforderung, um auch bei Nutzungsspitzen Kunden-SLAs einzuhalten und die Anwendererfahrung nicht zu beeinträchtigen. Ein virtuelles Datenzentrum, das im Unternehmen oder von einem Cloud-Dienstanbieter gehostet wird, muss so bereitgestellt werden, dass es die für Cloud-basierte Anwendungen erforderlichen Funktionen und Leistungen erbringt.

Beim Testen von Cloud-Diensten kommen einige bereits bekannte und einige neue Aspekte ins Spiel. Grundlegende Komponenten im Rechenzentrum müssen auch bei Nutzung einer Cloud Computing-Umgebung Funktionstests unterzogen werden. Im Anschluss daran werden das Rechenzentrum selbst und die kompletten Dienste getestet.

Auf Netzwerkanschlussebene der Infrastruktur müssen folgende Komponenten getestet werden:
• Router
• Switches, einschließlich Fibre Channel Forwarder (FCF)
• Plattformen für die Anwendungsbereitstellung
• Voice-over-IP (VoIP)-Gateways

Auf Server- und Speicherebene der Infrastruktur müssen folgende Komponenten getestet werden:
• Kapazität des Rechenzentrums
• Netzwerke im Rechenzentrum
• Speichersysteme
• Konvergierte Netzwerkadapter
• Auf Virtualisierungsebene müssen folgende Komponenten getestet werden:
• Virtuelle Hosts
• Video Headends
• Instanziierung und Verschiebung virtueller Maschinen

Auf Sicherheitsinfrastrukturebene müssen folgende Komponenten getestet werden:
• Firewalls
• Intrusion Prevention-Systeme (IPSs)
• VPN-Gateways

Einige Anbieter liefern auch Zugriffskontroll- und Verschlüsselungsdienste für die Cloud, um das sichere Speichern von vertraulichen Unternehmens- und Kundendaten zu gewährleisten. Diese Dienste erweisen sich oft als sicherer als die über die lokale IT und zugehörigen Systeme verfügbaren Dienste. Auch wenn die Infrastruktur ausgelagert wird, muss diese dennoch vor der Bereitstellung getestet werden. Die Cloud ermöglicht das Durchführen dieser Tests ohne zusätzliche Hardware oder geplante Ausfallzeiten, da sie eine temporäre Testumgebung bereitstellen kann. Die Testumgebung kann ein Zehntel der "normalen" Netzwerkgröße aufweisen und dennoch aussagekräftige Qualitätsmesswerte liefern.

Dabei sollten Auftraggeber, also Unternehmen, die ihre Anwendungen in die Cloud legen möchten, jedoch eines beachten: Hosts, Netzwerke und Speicher werden in einem Cloud Computing-Szenario ausschließlich vom Dienstanbieter angepasst und verantwortet. Darüber hinaus lassen sich die Dienstanbieter in der Regel aber auf keine verbindlichen Qualitätszusagen ein.

Dem beauftragenden Unternehmen obliegt es damit selbst, Dienstqualität und Sicherheit seiner Netzwerke und Anwendungen zu überprüfen. Genauer gesagt, Unternehmen sollten die Testverfahren professioneller Anbieter einsetzen, um damit die Kapazität und Latenz, den Durchsatz und die Qualität der Anwendererfahrung (Quality of Experience, QoE) zu überprüfen. Die Key-Parameter in diesem Zusammenhang lauten Kontinuität der Testverfahren, Testen in Echtzeit und allen voran Testen unter realistischen Rahmenbedingungen. Nur so können Unternehmen sichergehen, dass auch ihre in die Cloud gelegten Anwendungen genau so performen, wie von es von ihnen erwartet wird. (Ixia: ra)

Ixia: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Grundlagen

  • Es ist an der Zeit, die Cloud zu dezentralisieren

    Heute beheimatet die Erde 206 souveräne Staaten. Souveränität ist, wie uns das Lexikon erklärt, das "volle Recht und die Macht eines Regierungsorgans über sich selbst, ohne Einmischung von außen". In gewisser Weise hat die in den frühen 2000er Jahren eingeführte Public Cloud die Souveränität vieler Staaten in Frage gestellt: Sie zentralisierte Daten- und Cloud Computing-Services auf sehr effiziente Weise, um Kunden in jeder Ecke der Welt zu bedienen - eine Welt ohne Grenzen. Verbraucher und Unternehmen begrüßten das befreiende Konzept, das sich schnell weiterentwickelte.

  • Cloud-Sicherheit & Shared Responsibility-Modell

    Viele Unternehmen setzen auf eine Kombination verschiedener Backup-Lösungen, häufig über mehrere Standorte hinweg. Im Krisenfall macht es solch eine Strategie jedoch oft schwierig, Dateien zeitnah wiederherzustellen. Dagegen bieten Cloud-integrierte Lösungen einfaches Testen der Disaster-Recovery-Strategie und im Notfall die rasche Rückkehr zum Normalbetrieb. Daten sind für Unternehmen heute wertvolle Rohstoffe und müssen besser gesichert werden als je zuvor. Gerade in Zeiten weltweiter Ransomware-Attacken ist eine profunde Backup- und Disaster Recovery-Strategie daher unabdingbar geworden, um im Krisenfall sofort reagieren zu können und die Geschäftskontinuität zu sichern. Doch bei der Disaster Recovery geht es nicht nur um Ransomware-Bedrohungen und Advanced Threats, sondern ebenso um die Wiederherstellung nach Hardware-Ausfällen von IT-Komponenten wie Servern und Storage-Systemen, aufgrund menschlicher Fehler oder einer Naturkatastrophe.

  • Wächter des Cloud-Datenschatzes

    Im Zuge der Digitalisierung wächst die Datenmenge, die Unternehmen täglich verarbeiten, stetig an. Dies spiegelt sich auch in der gestiegenen Nutzung von Cloud Computing-Anwendungen in den vergangenen Jahren wider. Unternehmensdaten sind rund um die Uhr überall zugänglich, ermöglichen effiziente Arbeitsabläufe und - zumindest auf den ersten Blick - etwas weniger Verwaltungsaufwand für die IT-Abteilung. Dieser Effekt relativiert sich jedoch, wenn man die Cloud Computing-Nutzung unter dem Aspekt der Sicherheit betrachtet. Die damit einhergehenden Risiken und neuen Bedrohungen erfordern fortschrittliche Sicherheitstechnologien, um den Schutz von Unternehmensdaten gewährleisten zu können.

  • Cloud-Sicherheit: Shared Responsibility-Modell

    Viele Unternehmen setzen auf eine Kombination verschiedener Backup-Lösungen, häufig über mehrere Standorte hinweg. Im Krisenfall macht es solch eine Strategie jedoch oft schwierig, Dateien zeitnah wiederherzustellen. Dagegen bieten Cloud-integrierte Lösungen einfaches Testen der Disaster-Recovery-Strategie und im Notfall die rasche Rückkehr zum Normalbetrieb. Daten sind für Unternehmen heute wertvolle Rohstoffe und müssen besser gesichert werden als je zuvor. Gerade in Zeiten weltweiter Ransomware-Attacken ist eine profunde Backup- und Disaster Recovery-Strategie daher unabdingbar geworden, um im Krisenfall sofort reagieren zu können und die Geschäftskontinuität zu sichern.

  • DevOps: Eine Gefahr oder die Zukunft für ITSM?

    Der digitale Wandel beeinflusst die Unternehmenslandschaft stark. Auch im IT-Service-Management stehen Entscheider zahlreichen neuen Herausforderungen gegenüber. Die Verzahnung von Entwicklung und Betrieb, auch Development and Operations, kurz DevOps, spielt eine immer größere Rolle. Häufig stellen sich die Verantwortlichen jedoch eine Frage: Ist DevOps eine Gefahr oder die Zukunft des IT-Service-Managements (ITSM)? Zu den Ursachen für etwaige Bedenken zählt unter anderem die Infragestellung der Stabilität des IT-Betriebes. Angebote aus der Cloud werden mit einem Angriff auf die eigene IT gleichgesetzt und gestandene ITIL-Change-Manager können sich eine weitere Verkürzung und Vereinfachung der Prozesse nicht mehr vorstellen. Dabei lässt sich bei Betrachtung des Bereichs "Entwicklung und Betrieb von Applikationen" feststellen, dass es zahlreiche Gründe gibt, sich mit den Inhalten von DevOps zu befassen. Veränderungen im IT-Service-Management stellen dabei stets eine Notwendigkeit dar.

  • Das WAN weicht in die Wolke

    Unternehmen als abgeschlossene Einheiten sind passé. Neue Arbeitskonzepte wie mobiles Arbeiten oder BYOD lassen Mauern bröckeln - gerade auch im Hinblick auf Unternehmensnetzwerke. Unternehmen mit Niederlassungen oder Filialen im Handel müssen neben stationärer IT wie Kassensystemen auch mobile oder temporäre Geräte ins Netzwerk einbinden, zum Beispiel Digital-Signage-Terminals. Und Kunden setzen meist ein offenes WLAN voraus. Die digitale Transformation stellt neue Herausforderungen an das vormals Hardware-orientierte Wide-Area-Network (WAN)-Management. Software- und Cloud-definierte Ansätze erleichtern die Administration bei gleichzeitig hohen Sicherheitsstandards.

  • DevOps gegen IT-Operations

    Ein IT-Infrastrukturteam hat es heutzutage nicht leicht. Einerseits muss es den Betrieb des herkömmlichen Rechenzentrums aufrechterhalten, gleichzeitig soll es die strategische Digitalisierung des Unternehmens vorantreiben. Als wenn das nicht schon Herausforderung genug wäre, sollen die IT-ler zusätzlich komplett neue Technologien bereitstellen, um die neuen DevOps-Kollegen bestmöglich bei Neuerungen und schnelleren Release-Zyklen zu unterstützen. Anforderungen von DevOps an eine flexible und automatisierte Unternehmensinfrastruktur sind nicht immer einfach zu erfüllen und so wird der Trend zu DevOps für Infrastrukturteams eine zusätzliche Belastung. Prallen doch die unterschiedlichen Welten der IT-Operations und des DevOps-Teams aufeinander.

  • Automatisierte Speicherrichtlinien & Daten-GPS

    Die Globalisierung hat die Welt schrumpfen lassen. Nicht nur Reisende ziehen heute rund um den Globus, auch Daten sind dank Cloud Computing äußerst mobil und werden von Unternehmen aus den unterschiedlichsten Gründen zwischen Rechenzentren verschoben. Wir Menschen fühlen uns im eigenen Zuhause am sichersten. Auch für Unternehmensdaten gilt, dass das Risiko sie bei der Migration über Ländergrenzen hinweg zu verlieren, natürlich steigt. Als Mensch ist es heute mittels GPS sehr einfach, einen Standort zu bestimmen. Damit auch Unternehmen immer genau wissen, wo ihre Daten physisch gespeichert sind, bieten sich dank automatisierten Speicherrichtlinien und einem Daten-GPS neue Methoden, den exakten Standort von Daten festzulegen.

  • Mit SaaS & HaaS die IT-Abteilung entlasten

    In vielen Unternehmen stehen CIOs vor der Aufgabe, mit einer sich rasch entwickelnden IT-Welt Schritt halten zu müssen. Hinzu kommt, geeignetes Personal mit dem entsprechenden Know-how zu finden und sich stets gegen zunehmende Sicherheitsrisiken zu wappnen. Diese Herausforderungen beanspruchen zeitliche und finanzielle Ressourcen in der IT-Abteilung, die Unternehmen an anderer Stelle dringender bräuchten. Im Rahmen von Managed Services wie Software-as-a-Service (SaaS) und Hardware-as-a-Service (HaaS) werden Standardaufgaben an externe Dienstleister ausgelagert. Das schafft Freiräume und entlastet die IT-Abteilung. Welche Fragen sind relevant, um zu erkennen, ob auch das eigene Unternehmen von Managed Services profitieren kann.

  • Die Zukunft des File Sharing

    Um den Austausch von Forschungsdaten zwischen verschiedenen Teams am CERN zu ermöglichen, erfand Tim Berners-Lee in den achtziger Jahren, als Nebenprodukt sozusagen, das Internet. Heute ist das Internet die tragende Säule der weltweiten Kommunikation und aus unserem digitalen Leben nicht mehr wegzudenken. Überraschenderweise hat sich seit den frühen Tagen des Internets kaum etwas verändert: Nach wie vor werden für die Übermittlung von Dateien Protokolle aus den Anfangstagen des Internets genutzt. Zum damaligen Zeitpunkt war jedoch eine Welt, in der Datenmengen exponentiell wachsen, Hacker an allerlei Daten interessiert sind und Organisationen in denen zehntausende Mitarbeiter täglich millionenfach Dateien teilen, noch nicht vorstellbar. Worauf sollten Unternehmen also achten, wenn sie eine zukunftssichere File Sharing-Lösung nutzen möchten? Und welche neuen Technologien halten Einzug um Filesharing sicherer, komfortabler und schneller zu machen?