- Anzeige -


Sie sind hier: Startseite » Markt » Tipps und Hinweise

Ein Quality-of-Service-Konzept ist gefragt


Praxis-Tipps: So können Sie Quality of Service garantieren
Cloud Service Provider und IT-Abteilungen in größeren Unternehmen kommen am Thema Quality of Service nicht mehr vorbei

- Anzeigen -





Von Georg Mey, Senior Manager Solution Architects EMEA bei NetApp

Wer in einer mandantenfähigen Umgebung viele geschäftskritische Applikationen gleichzeitig betreibt, steht vor einem Problem: Wie lässt sich sicherstellen, dass jede Anwendung genügend Storage-Performance bekommt, damit sie stabil läuft? Ein Quality-of-Service-Konzept ist gefragt. Dafür gibt es verschiedene Ansätze. Der Königsweg ist eine Virtualisierungs-Technologie wie SolidFire, die Kapazität und Performance trennt und garantierte IOPS pro Volume ermöglicht.

Cloud Service Provider und IT-Abteilungen in größeren Unternehmen kommen am Thema Quality of Service nicht mehr vorbei. Sie müssen dafür sorgen, dass geschäftskritische Applikationen schnell und vor allem stabil laufen. Dafür spielt die Speicher-Leistung eine wichtige Rolle. Das Problem: Wenn viele Anwendungen gleichzeitig auf denselben Storage zugreifen, kommt es zum Noisy-Neighbour-Syndrom. Die App, die am lautesten nach Ressourcen schreit, bekommt sie auch. Das bremst andere aus, denn für sie bleibt nur noch der Rest.

Im schlimmsten Fall kann ein Performance-hungriger Nachbar ein ganzes System lahm legen. Während IT-Administratoren in Unternehmen solche Apps auf einen anderen Storage migrieren und ihren Anforderungen nach verteilen können, sind Cloud-Service-Provider im Blindflug. Denn sie können schlichtweg nicht vorhersehen, welche Applikationen ihre Kunden in der Cloud Computing-Infrastruktur betreiben. Welche Möglichkeiten haben sie also, um Performance zu garantieren?

Hardware aufstocken
Bei traditionellen Storage-Lösungen sind Kapazität und Performance untrennbar miteinander verknüpft. IT-Verantwortliche vergrößern daher den Speicher und stocken Hardware auf, wenn sie einzelnen Applikationen mehr IOPS zur Verfügung stellen wollen. In Folge kaufen sie unnötig viel Storage, wobei ein Teil der Ressourcen die meiste Zeit ungenutzt bleibt. Dieser Ansatz ist also nicht sehr kosteneffizient.

IO-Priorisierung: Sonderbehandlung für ausgewählte Volumes
Einige Storage-Hersteller haben eine IO-Priorisierung in ihre Produkte eingebaut, um Quality of Service zu ermöglichen. IT-Administratoren können damit Volumes festlegen, die bei der Performance-Verteilung bevorzugt behandelt werden. Ein solches System funktioniert jedoch nur in Umgebungen, in denen es wenige priorisierte Volumes gibt. Denn sonst machen auch diese sich die Leistung wieder strittig. Außerdem setzt es voraus, dass IT-Verantwortliche wissen, welche und wie viele Volumes sie bevorzugen müssen. Für Cloud-Service-Provider, die keinen Einblick in die Applikationen ihrer Kunden haben, also schwierig.

Rate Limiting: Die maximale Performance einschränken
Andere Hersteller ermöglichen es, harte Performance-Grenzen für ausgewählte Volumes festzulegen. Das verhindert zwar, dass Noisy Neighbours ausscheren können. Gleichzeitig schränkt es aber auch Applikationen ein, die in rechenintensiven Phasen besonders viel Performance benötigen.

Storage Tiering: Dateien schlau umschichten
Ein klassischer Weg, um Performance zu verbessern, ist das Tiering. Dabei bauen IT-Verantwortliche die Storage-Umgebung als Schicht-Modell auf, das aus langsameren Festplatten-Arrays und schnellen SSDs besteht. Intelligente Algorithmen verschieben Apps dann nach Bedarf in den schnelleren oder langsameren Bereich. Dieses ständige Daten-Umschichten belastet jedoch die SSDs. Deshalb müssen Unternehmen für Storage-Tiering die teureren, Single-Level-Cell-Speicherzellen einsetzen.

Das macht allerdings die Kostenersparnis hinfällig, die man sich durch den Einsatz der langsameren HDDs der unteren Schicht versprochen hatte. Außerdem müssen Administratoren dafür sorgen, dass die jeweiligen Speicherschichten immer groß genug sind. Dafür müssen sie die Umgebung laufend überwachen und anpassen. Das verursacht nicht nur hohen Aufwand. Cloud-Service-Provider können gar nicht abschätzen, wie jeder Storage Tier ausgelegt sein muss, da sie nicht wissen, was für Apps ihre Kunden betreiben.

Der Königsweg: Performance virtualisieren
Moderne All-Flash-Systeme bieten einen innovativen Weg, um Quality of Service zu garantieren. Sie sammeln die Performance aller Speicherknoten eines Systems in einem virtuellen Performance-Pool, unabhängig von der Speicherkapazität. Alle Applikationen können dann auf die vereinte Storage-Leistung im Pool zugreifen. IT-Administratoren haben die Möglichkeit, für jedes Volume maximale IOPS, minimale IOPS und Burst-IOPS festzulegen.

Der Minimal-Wert wird nie unterschritten und ist die Performance, die einer Applikation auf diesem Volume immer garantiert zur Verfügung steht. Die maximalen IOPS sind über einen längeren Zeitraum hinweg möglich, die Burst-IOPS in kurzen, besonders rechenintensiven Phasen. Administratoren können Policies definieren, um IOPS-Werte automatisiert zuzuweisen. So lässt sich der Storage künftig auf Knopfdruck provisionieren.

Fazit
Mit einer virtualisierten Quality of Service-Lösung, wie sie NetApp SolidFire bietet, sind Cloud Service Provider in der Lage, ihren Kunden eine stabile Performance zu garantieren. Unabhängig davon, welche Applikationen sich die Storage-Umgebung teilen, bekommt jede die Ressourcen, die sie benötigt. Noisy Neighbours haben keine Chance mehr. Dadurch, dass sich Kapazität und Performance getrennt voneinander managen lassen, können IT-Administratoren das Storage-System so aufbauen, dass es effizient ausgelastet wird. Das spart unnötige Hardwarekosten und steigert die Flexibilität.
(NetApp: ra)

eingetragen: 18.05.17
Home & Newsletterlauf: 31.05.17

NetApp: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Tipps und Hinweise

  • Ein Mikro-Rechenzentrum so gut wie die Cloud

    Unternehmen befinden sich an einem Wendepunkt. Sie müssen neue Wege finden, wie sie Kunden für sich gewinnen. Die Geschäftsentwicklung erfolgt heute nicht mehr linear. Stattdessen können sich Chancen jederzeit aus allen Richtungen auftun. Unternehmen brauchen die Flexibilität, um umgehend reagieren zu können. Mit einem traditionellen Rechenzentrum ist das nicht möglich. Starre IT-Strukturen sind eher ein Bremsklotz als ein Enabler, weil sie zu komplex zu managen sind und jede Änderung viel Zeit kostet.

  • So richtet man Self-Service-Portale ein

    Früher war die Bereitstellung von IT-Ressourcen ein manueller, zeitraubender und langwieriger Prozess. Ein Entwickler oder Fachanwender, der bestimmte Ressourcen benötigte, musste mitunter Tage oder gar Wochen darauf warten. Währenddessen wanderte sein Antrag zwischen den für die Freigabe der Ressource zuständigen Stellen hin und her. So zu arbeiten, kann sich heute kaum noch jemand leisten. Denn mittlerweile fragen sich viele Anwender, warum es so umständlich ist, zusätzliche Ressourcen von der IT-Abteilung für die Unterstützung ihres neuesten Projekts zu erhalten, während Amazon, Dropbox oder Apple mit ihren Cloud Computing-Angeboten zeigen, wie einfach das funktionieren kann.

  • Agile Software-Entwicklung und DevOps

    Unternehmen müssen heute sehr flexibel sein, um umgehend auf neue Anforderungen reagieren zu können. Ein Rechenzentrum im traditionellen Sinn hilft ihnen da nicht weiter, denn starre IT-Strukturen sind ein Bremsklotz und schwer zu managen. Jede noch so kleine Änderung kann extrem viel Zeit in Anspruch nehmen. IT-Ressourcen müssen jedoch flexibel, agil sowie automatisiert zur Verfügung stehen. Ansonsten drohen Einbußen, beispielsweise wenn sich die Antwortzeiten auf Kundenanfragen verzögern. Wer wartet, springt ab und wendet sich Mitbewerbern zu. Die digitale Wettbewerbsfähigkeit hängt entscheidend von der Reaktionsfähigkeit der IT-Services ab.

  • Cloud-Sicherheit: Was sind C5 und TCDP?

    Mit dem passenden Zertifikat oder Testat können sich Cloud Computing-Nutzer und Cloud-Anbieter in Deutschland rechtlich absichern: Anbieter können nachweisen, die gesetzlichen Anforderungen an sichere Cloud-Dienste erfüllt zu haben und Nutzer kommen ihrer Sorgfaltspflicht nach. Doch welcher Prüfstandard ist der richtige - und was bedeuten C5 und TCDP eigentlich? Mit dem Anforderungskatalog C5 (Cloud Computing Compliance Controls Catalogue) zur Beurteilung der Informationssicherheit von Cloud-Diensten hat das Bundesamt für Sicherheit in der Informationstechnik (BSI) eine Richtlinie für ein Mindestmaß an Sicherheit im Cloud Computing veröffentlicht.

  • So richtet man Self-Service-Portale ein

    Früher war die Bereitstellung von IT-Ressourcen ein manueller, zeitraubender und langwieriger Prozess. Ein Entwickler oder Fachanwender, der bestimmte Ressourcen benötigte, musste mitunter Tage oder gar Wochen darauf warten. Währenddessen wanderte sein Antrag zwischen den für die Freigabe der Ressource zuständigen Stellen hin und her. So zu arbeiten, kann sich heute kaum noch jemand leisten. Denn mittlerweile fragen sich viele Anwender, warum es so umständlich ist, zusätzliche Ressourcen von der IT-Abteilung für die Unterstützung ihres neuesten Projekts zu erhalten, während Amazon, Dropbox oder Apple mit ihren Cloud Computing-Angeboten zeigen, wie einfach das funktionieren kann.

  • Von der Cloud profitieren

    Wenn von der digitalen Transformation die Rede ist, so geht es meist um die Entwicklung neuer Geschäftsmodelle, die Vernetzung der physischen mit der digitalen Welt oder Big Data. Seltener ist von der digitalen Transformation des Kundendialogs die Rede, die Fokusthema auf der Call Center World 2018 vom 27.02. bis 01.03.2018 in Berlin sein wird. Dort erhalten Besucher drei Tage lang exklusive Einblicke in die neuesten Innovationen auf dem Markt. Um die Wartezeit bis zum Event Anfang nächsten Jahres zu überbrücken, gibt Lukas Baur, Head of Sales bei Avaya, bereits vorab fünf Tipps für den modernen Kundendialog im digitalen Zeitalter.

  • Ausbreitung von Malware vorbeugen

    Die zunehmende Beliebtheit von Cloud Computing-Anwendungen in Unternehmen macht diese auch für Cyberkriminelle attraktiv. Aufgrund ihrer vernetzten Natur bietet ihnen die Cloud die Möglichkeit, mittels Malware oder Ransomware erheblichen Schaden anzurichten. Verborgen in vertrauenswürdigen Dokumenten können einige Arten von Malware bis zu ihrer Aktivierung unentdeckt bleiben. In Organisationen, in denen für die Zusammenarbeit zwischen Niederlassungen externe Freigaben erforderlich sind, kann diese so ihren Weg zu Partnerunternehmen und weiteren Geschäftskontakten finden.

  • Cloud Computing und Compliance

    Compliance ist mehr als eine regulatorische Unternehmensaufgabe, sondern wesentlicher Bestandteil erfolgreicher Geschäftsstrategien. Moderne Cloud-Technologien stellen dabei neue Anforderungen an die Compliance, vereinfachen das Einhalten regulatorischer und gesetzlicher Anforderungen aber auch deutlich - durch Zentralisierung und Standardisierung von Prozessen. Das sind die Kernaussagen des aktualisierten Whitepapers "Nutzenpotenziale regulatorischer Anforderungen zur Geschäftsoptimierung im Rahmen der digitalen Transformation" von Microsoft Deutschland und ISG Germany. Das Whitepaper ist eine Neufassung des von Microsoft veröffentlichten Leitfadens zur Compliance und ist kostenfrei zum Download verfügbar.

  • Frei zwischen den Clouds bewegen

    Was haben 6Wunderkinder und Snapchat gemeinsam? Beide sind erfolgreiche Startups, die fest an einen Cloud Service Provider gebunden sind. 6Wunderkinder mit ihrer App Wunderlist setzte auf AWS. Microsoft kaufte später die Aufsteigerfirma. Die App wurde in der AWS Cloud entwickelt und ist stark mit den Services verbunden und ihre Daten lassen sich nicht einfach zu Microsoft Azure verschieben. Bei Snapchat kann sich Google zurücklehnen. Denn das seit 2017 börsennotierte Unternehmen zahlt satte 400 Millionen US-Dollar im Jahr dafür, dass es die Cloud Computing-Plattform von Google nutzt. Auch beim Instant-Messaging-Dienst vergaß man, einen möglichen Cloud-Exit am Anfang in die Strategie mit ein zu beziehen.

  • Eine Schlüsselrolle nimmt die Cloud ein

    Im Zuge der Digitalisierung und fortschreitenden Automatisierung von Prozessen erkennen zunehmend mehr Unternehmen den Wert von Daten: Laut einer aktuellen Studie von Crisp Research sind Unternehmen, die Daten schon frühzeitig in die Produktentwicklung und den Innovationsprozess einbinden, profitabler. Das Spektrum der Möglichkeiten ist breit und reicht von der Prozessoptimierung bis hin zur Entwicklung ganz neuer Geschäftsmodelle. Erfolgreiche Anbieter denken dabei nicht mehr in traditionellen Produktkategorien, sondern konzentrieren sich auf Lösungen, die den Kunden in den Mittelpunkt stellen. Über den Erfolg von Unternehmen im datengetriebenen Business entscheidet jedoch eine Vielzahl an Faktoren. Michael Bednar-Brandt, Director Business Innovation Oracle NEXT bei Oracle, gibt Tipps, wie Unternehmen vorgehen und worauf sie achten sollten.