- Anzeige -


Sie sind hier: Startseite » Markt » Tipps und Hinweise

Ein Quality-of-Service-Konzept ist gefragt


Praxis-Tipps: So können Sie Quality of Service garantieren
Cloud Service Provider und IT-Abteilungen in größeren Unternehmen kommen am Thema Quality of Service nicht mehr vorbei

- Anzeigen -





Von Georg Mey, Senior Manager Solution Architects EMEA bei NetApp

Wer in einer mandantenfähigen Umgebung viele geschäftskritische Applikationen gleichzeitig betreibt, steht vor einem Problem: Wie lässt sich sicherstellen, dass jede Anwendung genügend Storage-Performance bekommt, damit sie stabil läuft? Ein Quality-of-Service-Konzept ist gefragt. Dafür gibt es verschiedene Ansätze. Der Königsweg ist eine Virtualisierungs-Technologie wie SolidFire, die Kapazität und Performance trennt und garantierte IOPS pro Volume ermöglicht.

Cloud Service Provider und IT-Abteilungen in größeren Unternehmen kommen am Thema Quality of Service nicht mehr vorbei. Sie müssen dafür sorgen, dass geschäftskritische Applikationen schnell und vor allem stabil laufen. Dafür spielt die Speicher-Leistung eine wichtige Rolle. Das Problem: Wenn viele Anwendungen gleichzeitig auf denselben Storage zugreifen, kommt es zum Noisy-Neighbour-Syndrom. Die App, die am lautesten nach Ressourcen schreit, bekommt sie auch. Das bremst andere aus, denn für sie bleibt nur noch der Rest.

Im schlimmsten Fall kann ein Performance-hungriger Nachbar ein ganzes System lahm legen. Während IT-Administratoren in Unternehmen solche Apps auf einen anderen Storage migrieren und ihren Anforderungen nach verteilen können, sind Cloud-Service-Provider im Blindflug. Denn sie können schlichtweg nicht vorhersehen, welche Applikationen ihre Kunden in der Cloud Computing-Infrastruktur betreiben. Welche Möglichkeiten haben sie also, um Performance zu garantieren?

Hardware aufstocken
Bei traditionellen Storage-Lösungen sind Kapazität und Performance untrennbar miteinander verknüpft. IT-Verantwortliche vergrößern daher den Speicher und stocken Hardware auf, wenn sie einzelnen Applikationen mehr IOPS zur Verfügung stellen wollen. In Folge kaufen sie unnötig viel Storage, wobei ein Teil der Ressourcen die meiste Zeit ungenutzt bleibt. Dieser Ansatz ist also nicht sehr kosteneffizient.

IO-Priorisierung: Sonderbehandlung für ausgewählte Volumes
Einige Storage-Hersteller haben eine IO-Priorisierung in ihre Produkte eingebaut, um Quality of Service zu ermöglichen. IT-Administratoren können damit Volumes festlegen, die bei der Performance-Verteilung bevorzugt behandelt werden. Ein solches System funktioniert jedoch nur in Umgebungen, in denen es wenige priorisierte Volumes gibt. Denn sonst machen auch diese sich die Leistung wieder strittig. Außerdem setzt es voraus, dass IT-Verantwortliche wissen, welche und wie viele Volumes sie bevorzugen müssen. Für Cloud-Service-Provider, die keinen Einblick in die Applikationen ihrer Kunden haben, also schwierig.

Rate Limiting: Die maximale Performance einschränken
Andere Hersteller ermöglichen es, harte Performance-Grenzen für ausgewählte Volumes festzulegen. Das verhindert zwar, dass Noisy Neighbours ausscheren können. Gleichzeitig schränkt es aber auch Applikationen ein, die in rechenintensiven Phasen besonders viel Performance benötigen.

Storage Tiering: Dateien schlau umschichten
Ein klassischer Weg, um Performance zu verbessern, ist das Tiering. Dabei bauen IT-Verantwortliche die Storage-Umgebung als Schicht-Modell auf, das aus langsameren Festplatten-Arrays und schnellen SSDs besteht. Intelligente Algorithmen verschieben Apps dann nach Bedarf in den schnelleren oder langsameren Bereich. Dieses ständige Daten-Umschichten belastet jedoch die SSDs. Deshalb müssen Unternehmen für Storage-Tiering die teureren, Single-Level-Cell-Speicherzellen einsetzen.

Das macht allerdings die Kostenersparnis hinfällig, die man sich durch den Einsatz der langsameren HDDs der unteren Schicht versprochen hatte. Außerdem müssen Administratoren dafür sorgen, dass die jeweiligen Speicherschichten immer groß genug sind. Dafür müssen sie die Umgebung laufend überwachen und anpassen. Das verursacht nicht nur hohen Aufwand. Cloud-Service-Provider können gar nicht abschätzen, wie jeder Storage Tier ausgelegt sein muss, da sie nicht wissen, was für Apps ihre Kunden betreiben.

Der Königsweg: Performance virtualisieren
Moderne All-Flash-Systeme bieten einen innovativen Weg, um Quality of Service zu garantieren. Sie sammeln die Performance aller Speicherknoten eines Systems in einem virtuellen Performance-Pool, unabhängig von der Speicherkapazität. Alle Applikationen können dann auf die vereinte Storage-Leistung im Pool zugreifen. IT-Administratoren haben die Möglichkeit, für jedes Volume maximale IOPS, minimale IOPS und Burst-IOPS festzulegen.

Der Minimal-Wert wird nie unterschritten und ist die Performance, die einer Applikation auf diesem Volume immer garantiert zur Verfügung steht. Die maximalen IOPS sind über einen längeren Zeitraum hinweg möglich, die Burst-IOPS in kurzen, besonders rechenintensiven Phasen. Administratoren können Policies definieren, um IOPS-Werte automatisiert zuzuweisen. So lässt sich der Storage künftig auf Knopfdruck provisionieren.

Fazit
Mit einer virtualisierten Quality of Service-Lösung, wie sie NetApp SolidFire bietet, sind Cloud Service Provider in der Lage, ihren Kunden eine stabile Performance zu garantieren. Unabhängig davon, welche Applikationen sich die Storage-Umgebung teilen, bekommt jede die Ressourcen, die sie benötigt. Noisy Neighbours haben keine Chance mehr. Dadurch, dass sich Kapazität und Performance getrennt voneinander managen lassen, können IT-Administratoren das Storage-System so aufbauen, dass es effizient ausgelastet wird. Das spart unnötige Hardwarekosten und steigert die Flexibilität.
(NetApp: ra)

eingetragen: 18.05.17
Home & Newsletterlauf: 31.05.17

NetApp: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Tipps und Hinweise

  • Cloud oder nicht Cloud

    Cloud Computing ist eine effektive Lösung, große Mengen an Daten zu sichern und Dienste zentral online abzurufen. Virtuelle Datenspeicher - sogenannte Cloud-Dienste - stehen heute für Kunden in unterschiedlichen Bereichen zur Verfügung. Der Up- und Download erfolgt über ein internetfähiges Endgerät wie Heimrechner oder Smartphone. Eine Reihe von Smart Home-Anbietern setzt bei ihren Smart Home-Anwendungen ebenfalls auf Cloudspeicherung. Das Steuern der Heizungs- und Photovoltaikanlage, die Einstellungen an der Alarmanlage und andere Funktionen erfolgen dann über das Internet.

  • Auftragsdatenverarbeitung in der Cloud

    Ab dem 25. Mai 2018, gilt die neue EU-Datenschutz-Grundverordnung (DSGVO) und regelt den Umgang mit personenbezogenen Daten in Cloud-Infrastrukturen neu. "Die rechtlichen Anforderungen an die Auftragsdatenverarbeitung in der Cloud ändern sich mit der neuen europäischen Verordnung", sagt RA Jens Eckhardt, Vorstand Recht & Compliance EuroCloud Deutschland_eco e. V. "Cloud Provider sind jetzt - auch im Eigeninteresse - gehalten, die Verträge mit ihren Auftraggebern schnellstmöglich zu überprüfen und bis Mai 2018 gegebenenfalls anzupassen, um rechtswidrige Nutzungen zu vermeiden. Die DSGVO sieht keinen Bestandsschutz für Altverträge vor; das heißt auch Altverträge müssen den Vorgaben der DSGVO entsprechen."

  • Ein Quality-of-Service-Konzept ist gefragt

    Wer in einer mandantenfähigen Umgebung viele geschäftskritische Applikationen gleichzeitig betreibt, steht vor einem Problem: Wie lässt sich sicherstellen, dass jede Anwendung genügend Storage-Performance bekommt, damit sie stabil läuft? Ein Quality-of-Service-Konzept ist gefragt. Dafür gibt es verschiedene Ansätze. Der Königsweg ist eine Virtualisierungs-Technologie wie SolidFire, die Kapazität und Performance trennt und garantierte IOPS pro Volume ermöglicht. Cloud Service Provider und IT-Abteilungen in größeren Unternehmen kommen am Thema Quality of Service nicht mehr vorbei. Sie müssen dafür sorgen, dass geschäftskritische Applikationen schnell und vor allem stabil laufen. Dafür spielt die Speicher-Leistung eine wichtige Rolle. Das Problem: Wenn viele Anwendungen gleichzeitig auf denselben Storage zugreifen, kommt es zum Noisy-Neighbour-Syndrom. Die App, die am lautesten nach Ressourcen schreit, bekommt sie auch. Das bremst andere aus, denn für sie bleibt nur noch der Rest.

  • Themen innerhalb des ISMS-Aufbaus

    Ein sehr erfolgskritischer Faktor beim Aufbau eines Informationssicherheits-Managementsystems (ISMS) besteht in der Akzeptanz und breiten Mitwirkung innerhalb der gesamten Unternehmensorganisation. TÜV Trust IT hat hierfür einige praxisbewährte Tipps zusammengestellt. In der gesamten Kommunikation müssen verschiedene Fragen deutlich beantwortet werden: Warum brauchen wir das? Was haben wir davon und wo wollen wir hin? Dies muss in einer Sprache geschehen, die für alle verständlich ist. Management Commitment: Das gesamte Projekt steht und fällt mit dem Management Commitment. Steht die Geschäftsleitung nicht ausreichend hinter dem Projektvorhaben, ist die Wahrscheinlichkeit, dass das Projekt scheitert, sehr hoch. Notwendig ist auch, dass die Projektverantwortlichen vom Top-Management ausreichende Entscheidungsfreiräume erhalten.

  • Cloud-basierte Management-Lösungen

    Extreme Networks fasst drei wichtige Argumente dafür zusammen, wie IT-Dienstleister den Einsatz Cloud-basierter Netzwerkmanagement-Lösungen für den Ausbau ihres Service-Angebots nutzen und damit Ihr Geschäftsergebnis verbessern können. Durch die sich weiterentwickelnden Einsatzmöglichkeiten von Technologien erlebt die IT-Dienstleistungsbranche eine enorme Veränderung. Unternehmen verlassen sich bei Kundenanfragen, Geschäftswachstum und Umsatzsteigerung immer stärker auf die Unterstützung durch ihre IT-Lösungen. Durch diese Abhängigkeit ergeben sich Herausforderungen für Unternehmen, die noch stärker mit IT-Entwicklungen Schritt halten müssen, um wettbewerbsfähig zu bleiben. Daher setzen immer mehr Unternehmen auf die Zusammenarbeit mit Managed Service Providers (MSPs). Für diese eröffnen sich hier interessante Geschäftsfelder.

  • Zertifizierung von Cloud-Providern

    In knapp einem Jahr ist es soweit: Am 25. Mai 2018 tritt die Europäische Datenschutzgrundverordnung (DSGVO) in Kraft. Privatpersonen haben damit das Recht, von Unternehmen, denen sie im Zuge einer Geschäftsbeziehung ihre Daten anvertraut haben, auf Anfrage umfassende Auskunft über die Verarbeitung ihrer persönlichen Daten zu erhalten. Die Unternehmen wiederum unterliegen dann der Kontrolle staatlicher Prüfinstanzen, weshalb sie gefordert sind, nicht nur für Sicherheit, sondern auch für Transparenz in ihren Datenverarbeitungsprozessen zu sorgen. Eine besondere Verantwortung wird Unternehmen zuteil, wenn es um die Nutzung von Cloud Computing-Anwendungen geht. Zwar sieht die DSGVO eine geteilte Verantwortung zwischen Cloud-Nutzern und Cloud-Providern vor, doch zur Verantwortung gezogen werden schlussendlich die Unternehmen, die die Cloud nutzen.

  • MSPs und ihr Portfolio

    Der Managed Service Providers (MSPs)-Markt ist hart umkämpft und die Konkurrenz stark. Wie können sich Verantwortliche von der Konkurrenz absetzen, um möglichst effizient und gewinnbringend zu arbeiten? Kaseya nennt vier Punkte, die jeder MSP regelmäßig auf seiner strategischen To-Do-Liste haben sollte. Support-Anfragen: Managed Service Providers sollten regelmäßig ihre Support-Anfragen evaluieren: Welches sind die häufigsten Support-Anfragen, welches die zeitintensivsten? Welches ist der Kunde mit der höchsten Anfragequote und welcher mit der niedrigsten?

  • Spezialisierte Cloud-Security-Services

    Mit IT-Security-Maßnahmen in der Cloud ergänzen und verstärken Unternehmen die in ihren Rechenzentren bereits eingesetzten, lokalen IT-Sicherheitsprodukte. Akamai nennt die wichtigsten Auswahlkriterien für eine Cloud-basierte Sicherheitslösung, die einen wirksamen Schutz vor DDoS-Angriffen bieten. DDoS-Attacken werden immer gefährlicher. Das zeigen Aktivitäten von verschiedensten Hacker-Gruppen, die sich mit unterschiedlichen Namen wie etwa DD4BC, Stealth Ravens sowie aktuell XMR Squad schmücken. Sie versuchen Schutzgelder zu erpressen und Websites lahm zu legen.

  • Outsourcing im Mittelstand

    Wenn es um Optimierungsprozesse und Kostenersparnis geht, setzen immer mehr mittelständische Firmen auf elektronische Rechnungen. Damit lassen sich sowohl manuelle Abläufe der Rechnungsabwicklung durch automatisierte digitale Finanzprozesse optimieren als auch jede Menge Kosten und Ressourcen sparen. Mit einer verbesserten Liquidität und Prozesstransparenz steigt der Wettbewerbsvorteil, insbesondere für den Mittelstand. Spezialisierte Full-Service-Billing-Dienstleister automatisieren Rechnungsabläufe mithilfe von Software zeit- und kosteneffizient. "Somit ist es Unternehmen möglich, sich auf das eigene Kerngeschäft zu konzentrieren, da Kapital und Personal für strategisch wichtige Aufgaben und Ressourcen eingesetzt werden können", weiß Marko Fliege, CEO und Gründer der JustOn GmbH.

  • Praxis-Tipps: Storage unter OpenStack

    Immer mehr Unternehmen setzen OpenStack ein, um eine Cloud Computing-Infrastruktur aufzubauen. Dabei haben sie die Wahl zwischen drei Speicher-Modellen: Object Storage mit Swift, Block Storage mit Cinder oder File Storage mit Manila. Welche Lösung die richtige ist, hängt vom Anwendungsfall ab. Meist ist eine Kombination der drei Varianten empfehlenswert. Grundsätzlich ist bei OpenStack-Projekten zu beachten, dass sich die Storage-Komponenten in vollem Umfang und mit wenig Aufwand integrieren lassen. Bei NetApp SolidFire beispielsweise erfolgt die nahtlose Einbettung in das Open-Source-Konstrukt durch die Eingabe von nur vier Zeilen Code.