- Anzeige -

Storage in der OpenStack-Ära


Open Source Framework für Private und Public Clouds
Die OpenStack-Umgebung ist anders als normal virtualisierte Umgebungen


Anzeige

Von Christian Arkadius Keil, Senior Pre-Sales Consultant DACH bei Tintri

(21.03.16) - Der Aufstieg von OpenStack, dem Open Source Framework für Private und Public Clouds, ist seit seinem Beginn 2010 äußerst bemerkenswert. Die Plattform ist zu einem echten Phänomen geworden und mehr als 500 Firmen, darunter einige Schwergewichte der IT, sind der OpenStack Foundation bereits beigetreten. Bereits jetzt unterstützen alle wichtigen Hypervisoren und eine große Anzahl an Speicherlösungen OpenStack, darunter Ceph, NetApp, Tintri, EMC Solidfire, LVM und GlusterFS. Unternehmen, die mit dem Gedanken spielen, für ihre neue Cloud-Architektur auf OpenStack zu setzen, benötigen jedoch den richtigen Unterbau, um die Vorteile voll nutzen zu können. Eine Frage ist auch bei OpenStack von zentraler Bedeutung: Wie sieht der ideale Speicher aus?

Es gibt eine ganze Reihe an unternehmerischen Gründen OpenStack zu nutzen. Zum einen gibt OpenStack als Open-Source-Projekt Entwicklern direkten Zugang zu Infrastruktur des Programms, die damit unglaublich schnell Innovationen umsetzen können, die in normalen virtualisierten Umgebungen nicht möglich wären. Zusätzlich können Kunden von enormen Kosteneinsparungen durch Open Source profitieren, anstatt Herstellern teure Software-Lizenzen zu bezahlen. Die hersteller-neutrale Open Source OpenStack-API vermeidet damit Herstellerbindung.

Allgemein bietet OpenStack Organisationen eine größere Flexibilität beim Einsatz der Plattform. Kunden können den OpenStack-Code einfach selbst herunterladen und aufsetzen oder sich für eine Version von Herstellern wie RedHat, VMware, SUSE, HP, Canonical oder Mirantis entscheiden. Auch vertikal integrierte Lösungen wie VMware Integrated Openstack oder Piston OpenStack sind möglich.

Auch OpenStack benötigt natürlich eine Speicherlösung auf der die Umgebung aufbaut. Das Angebot ist enorm weit gefächert und es kann schwierig sein, sich für eine Plattform zu entscheiden. Vorher ist es allerdings wichtig zu verstehen, dass Open-Stack-Umgebungen von Natur aus komplett anders sind, als die viel stärker kontrollierten Virtualisierungs-Umgebungen an die wir uns bisher gewöhnt haben. Ein wichtiger Unterschied ist etwa, dass OpenStack multiple Tenants und Nutzer unterstützt, die alle ihre eigenen VMs in einem Cloud-Pool kreieren können.

Volle Visibilität, um individuelle VMs auf der darunter liegenden Infrastruktur zu sehen, sie zu analysieren und zu verwalten, ist deshalb besonders wichtig. Mit normalen Speicherlösungen die auf LUNs und Volumes aufbauen und nicht auf VM-Ebene, ist volle Visibilität allerdings nicht zu erreichen. Es bedarf VM-zentrischen Speichers, der den wachsenden Bedürfnissen der generell virtualisierten Ära gerecht wird, inklusive OpenStack-Umgebungen mit ihren sehr komplexen Mappings für LUNs und Volumes.

So muss OpenStack-Speicher sein
Der wichtigste Faktor für den richtigen Speicher für OpenStack, um eine wachsende Anzahl an VMs mit voller VM-Visibilität zu verwalten, inklusive VMs in der Cloud, ist also VM-zentrischer Speicher, der tief mit OpenStack APIs wie Cinder, Nova oder Keystone integriert ist. Viele Speicherhersteller haben bereits Cinder-Treiber für OpenStack beigesteuert. Cinder bietet langlebige Block-Level-Speicher für OpenStack und verwaltet deren Erstellung und das Anlegen von Block-Speichern für Server.

Blockspeicher-Volumen sind voll in OpenStack integriert, also sowohl Compute als auch das Dashboard, so dass Cloud-Nutzer ihren Speicherbedarf selbst verwalten können. Das bedeutet jedoch nicht, dass alle Treiber und Lösungen gleich sind. Denn nur mit einer tiefen Integration auf VM-Ebene sind Speicherlösungen fähig, Analysen in Echtzeit und Aufschlüsselung der Latenz zu bieten. Kunden müssen sich Lösungen genau ansehen, um zu bestimmen, ob sie Sichtbarkeit von VM- und Cinder-Volumes bieten, weil dies beim Betrieb und der Problembehebung von OpenStack-Installationen einen dramatischen Unterschied machen kann.

Neben der VM-Visibilität gibt es zahlreiche weitere Faktoren, die es bei der Wahl des richtigen Speichers für OpenStack zu berücksichtigen gilt. Zum Beispiel, die immens wichtige Latenz: Organisationen sollten eine gleichmäßige und vorhersehbare Latenz über alle OpenStack-Tenants und optimierte Cinder-Snapshots, Clones und VM-Provisionierung erwarten können. Hier trennt sich oft schnell die Spreu vom Weizen, da viele Lösungen mit verbautem Flash viel Performance generieren können, die wichtige Latenz hingegen hinterherhinkt. Beim Thema Performance gilt generell: Man kann (fast) nie zu viel Performance haben. Vor der Wahl des Speichers sollte man potenzielle Hersteller # nach Garantien für Performance und QoS fragen, genauso wie nach der Möglichkeit minimale und maximale IOPS einstellen zu können. Auch dies ist bei vielen einfachen Lösungen nicht selbstverständlich.

Schritt für Schritt zu OpenStack
Viele Organisationen werden wohl schrittweise von ihren bestehenden virtualisierten Umgebungen auf OpenStack wechseln. Da ist es natürlich ein besonderer Bonus, wenn man eine Lösung zur Verfügung hat, die sowohl mit OpenStack als auch mit anderen Hypervisoren parallel arbeiten kann. Das vermeidet Investitionen in neue Hardware und bietet die Flexibilität OpenStack-Installationen schrittweise zu skalieren. OpenStack bietet viele Chancen für die IT. Um diese voll ausnutzen zu können, müssen Organisationen VM-zentrischen Speicher wählen, der vorhersehbar hohe Leistung, einfache Verwaltbarkeit und simple Skalierung bietet. (Tintri: ra)

Tintri: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

 
Kostenloser SaaS/Cloud Computing-Newsletter
Ihr SaaS-Magazin.de-Newsletter hier >>>>>>


- Anzeige -


Meldungen: Hintergrund

Storage in der OpenStack-Ära Der Aufstieg von OpenStack, dem Open Source Framework für Private und Public Clouds, ist seit seinem Beginn 2010 äußerst bemerkenswert. Die Plattform ist zu einem echten Phänomen geworden und mehr als 500 Firmen, darunter einige Schwergewichte der IT, sind der OpenStack Foundation bereits beigetreten. Bereits jetzt unterstützen alle wichtigen Hypervisoren und eine große Anzahl an Speicherlösungen OpenStack, darunter Ceph, NetApp, Tintri, EMC Solidfire, LVM und GlusterFS. Unternehmen, die mit dem Gedanken spielen, für ihre neue Cloud-Architektur auf OpenStack zu setzen, benötigen jedoch den richtigen Unterbau, um die Vorteile voll nutzen zu können. Eine Frage ist auch bei OpenStack von zentraler Bedeutung: Wie sieht der ideale Speicher aus?

Kann die Private Cloud das Problem lösen? Jeder, der in einer Büroumgebung arbeitet, kennt die Situation: Ein digitales Dokument muss dringend zum Kunden und die Deadline naht bedrohlich. Die Datei ist aber zu groß für eine E-Mail und derjenige, der den FTP-Server verwaltet ist natürlich gerade im Urlaub. Wer praktisch und lösungsorientiert denkt und sich mit moderner Technologie auskennt wird bei der Lösung des Problems unweigerlich auf cloud-basierte Angebote wie Dropbox, Box oder andere stoßen. Das Hochladen der Daten ist einfach und im Handumdrehen geschehen. Der Kunde hat seine Daten und die meisten Mitarbeiter würden jetzt normalerweise ein anerkennendes Schulterklopfen erwarten, anstatt einer Abmahnung oder sogar einer fristlosen Entlassung.

Automatisiert in die Cloud sichern Rasant wachsende Datenmengen sowie die steigende Abhängigkeit der Unternehmen von ihren operativen Daten setzen die IT-Abteilung gewaltig unter Druck. CIOs müssen daher ihre Strategie für das Datenmanagement den veränderten Realitäten anpassen. Ein mögliches Werkzeug hierfür sind IT-Ressourcen aus der Cloud, die in die Backup- und Storage-Infrastruktur eingebunden werden. Die IT-Abteilung kann es sich nicht mehr leisten, auf die Cloud zu verzichten. Immer mehr Unternehmen in Deutschland setzen mittlerweile auf diese Technologie. In der Studie "Cloud-Monitor 2015" von KPMG und Bitkom vermelden die Analysten, dass bereits 44 Prozent der deutschen Unternehmen IT-Leistungen aus der Cloud beziehen. Weitere 24 Prozent planen oder diskutieren noch über den Einsatz. Dabei sind die gemachten Erfahrungen durchweg positiv, wie bis zu 78 Prozent der Befragten berichten.

eDiscovery in der Cloud: Flexibilität & Sicherheit Gerade erst verurteilte das französische Kartellamt elf Lebensmittelhersteller zu insgesamt 200 Millionen Euro Strafe wegen eines Joghurt-Kartells. Damit zählen die in diesem Fall verhängten Bußgelder zu den höchsten, die jemals wegen unzulässiger Preisabsprachen auferlegt wurden. Die Beteiligung an illegalen Preis- und Angebotsabsprachen führt nicht nur zu einem wirtschaftlichen Schaden durch horrende Bußgelder, sondern auch zu Verlusten durch verloren gegangene Geschäfte, die aus dem angekratzten Image resultieren. Eine aktuelle Studie im Auftrag des E-Discovery-Anbieterin Recommind belegt, dass deutsche Unternehmen tatsächlich viel Wert auf ihre Reputation legen: 75 Prozent der Befragten implementieren Compliance-Maßnahmen, um das Vertrauen nach außen hin zu erhalten.

Projekte mit Managementsoftware optimieren Die Anforderungen an Projektmanager sind hoch: Sie müssen nicht nur Budgets, Ressourcen und Aufgaben zentral verwalten, sondern auch schnelle Entscheidungen treffen. Dazu sollten alle notwendigen Daten zentral an einem Ort verfügbar sein und von den Verantwortlichen jederzeit abgerufen werden können. Moderne Projektmanagementsoftware erfüllt diese zentralen Anforderungen und ist daher aus dem Alltag nicht mehr wegzudenken. Besonders international tätige mittelständische Dienstleistungsunternehmen optimieren mit einer solchen Applikation ihre Prozesse, sparen eine Menge Zeit und schaffen mehr Raum für die eigentliche Projektarbeit.

Sicherheit für Unternehmensdaten in der Cloud Besonders kleine und mittlere Unternehmen profitieren von der Nutzung der Cloud, denn der Geschäftsalltag wird immer schnelllebiger und mobiler. Auch Home-Office gehört zum Alltag, wie die aktuelle Studie von IDC zum Thema "Mobile Content Management in Deutschland 2014" zeigt. Mitarbeiter steigern ihre Effizienz, wenn sie auf Unternehmensdaten und Dokumenten auch von unterwegs zugreifen können. Bei der Auswahl des richtigen Cloud-Angebotes sollten Themen wie Daten-, Zugriffs- und Rechtssicherheit sowie die Service-Qualität besonders kritisch betrachtet werden. KMU stehen aufgrund von Marktveränderungen unter zunehmendem Wettbewerbsdruck. Zeit ist ein kostbares Gut - dieses bestmöglich zu nutzen Pflicht. Um auf lange Sicht wirtschaftlich erfolgreich zu bleiben, müssen sie sich kontinuierlich an die neuen Anforderungen ihres Geschäftsumfelds anpassen. So ist es auch im Interesse des Arbeitgebers, wenn Mitarbeiter von unterwegs auf geschäftsrelevante Inhalte zugreifen können: Arbeitsprozesse werden auf diese Art dynamischer, flexibler und effektiver. So einfach es klingt, die Umsetzung in der Praxis ist nicht trivial. Mobiler Datenverkehr und Datenspeicherung in der Cloud müssen abgesichert sein. Daher sollte es im Interesse des Unternehmens liegen, die entsprechenden Rahmenbedingungen für den sicheren Austausch von geschäftsrelevanten Daten zu schaffen, bevor Mitarbeiter Selbstinitiative ergreifen und unsichere Plattformen zum Austausch von Informationen nutzen.

IT-Strategie - Inhouse versus Outsourcing Immer wieder werden deutsche Unternehmen oder spezifische Fachbereiche vor die Herausforderung gestellt, die eigene Ablauforganisation auf Einsparpotenziale, Prozesseffizienz oder Ressourcenauslastung hin zu überprüfen. Die "Make or Buy" - Entscheidung, z.B. ob ein Prozess oder ein Unternehmensbereich wie etwa die Lohnbuchhaltung, der Technische Kundendienst oder die IT-Administration inhouse oder durch externe Dienstleister abgewickelt wird, ist oftmals komplex und von vielen Faktoren abhängig: Umfang und Regelmäßigkeit des Bedarfs, (Fix-) Kostenvergleich intern/ extern, Ressourcenausstattung, Kapitalbindung, eigener Flexibilisierungsgrad, Kapazitätsauslastung, Wertschöpfungsanteil und weiteren. Waren Fremdbezugsentscheidungen früher vornehmlich auf die Fertigungsvorgänge beschränkt, erstrecken sie sich heute auf sämtliche direkten und indirekten Bereiche der betrieblichen Wertschöpfung.

Cloud-basierter Dienste-Marktplatz für Bürger "goBerlin", ein Projekt der Trusted-Cloud-Initiative des Bundesministeriums für Wirtschaft und Technologie (BMWi), schafft eine gemeinsame Plattform für Behörden, Bürger und Wirtschaft. Technische Basis ist eine IT-Service-Architektur mit Cloud Computing-Funktionalitäten. Das Technologieprogramm des BMWi unterstützt die Entwicklung innovativer, sicherer und rechtskonformer Cloud Computing-Lösungen, die sich insbesondere für den Einsatz im Mittelstand und im öffentlichen Sektor eignen. Unter 500 eingereichten Projektvorschlägen wurden 14 Initiativen ausgewählt, die nun gefördert werden. Im öffentlichen Sektor haben nur zwei Projekte diese Förderung erhalten, eines davon ist goBerlin. Zu den Initiatoren gehört das C-Lab, die gemeinsame Innovationswerkstatt des IT-Dienstleisters Atos und der Universität Paderborn. Die für goBerlin eingesetzten IT-Spezialisten des C-Lab verantworten unter anderem das Sicherheitskonzept und die Erarbeitung entsprechender Sicherheitsrichtlinien.

Suche ist Kommunikation Als Tim Berners-Lee im März 1989 ein Paper mit dem Namen "A Large Hypertext Database with Typed Links" veröffentliche, legte er damit nicht nur die Grundsteine für das heutige World Wide Web und darüber hinaus das Semantic Web, sondern auch für den damit einhergehenden Siegeszug von Suchmaschinen. Durch die dezentrale Organisation wurde es notwendig die Information des Webs zu crawlen und indizieren und Suche als Dienst im Web anzubieten. Suche ist Kommunikation. Der Benutzer stellt eine Anfrage mit einem bestimmten Ziel oder Bedürfnis und erhält eine Antwort in Form von Treffern auf eine Datenbasis, die meist nach der Relevanz gemäß einem Modell gereiht sind. Dabei sollen die Top-Treffer jene sein, die für den Benutzer am relevantesten sind. Um die Richtigkeit und Genauigkeit der Treffer und deren Relevanzbewertung für den Benutzer zu verbessern, wird die Rolle von künstlicher Intelligenz im Suchprozess immer wichtiger.

Strategisches Personalmanagement aus der Cloud Deutsche Personalmanager betrachten den demografischen Wandel als Megatrend, der sich in den kommenden drei Jahren am stärksten auf das Personalmanagement auswirken wird. Das belegt auch die Langzeitstudie "Professionelles Personalmanagement: Ergebnisse der PIX-Befragung 2012" der Deutschen Gesellschaft für Personalführung (DGFP) vom April 2012. Für knapp die Hälfte der Befragten spielen darüber hinaus die Digitalisierung der Arbeit sowie die Globalisierung eine entscheidende Rolle bei der künftigen Gestaltung von Human Resources (HR).

Autor / Quelle (abcd) der Beiträge siehe Angaben in Klammern vor Doppelpunkt: (abcd:)