- Anzeige -


Sie sind hier: Startseite » Markt » Tipps und Hinweise

Den App-Zugriff auf geteilte Speicher im Blick


Viele Workloads teilen Daten, wodurch NAS-Dienste bei einer Cloud-Migration in den Fokus rücken
Betrachtet man die großen drei Cloud-Provider Amazon Web Services, Google Cloud Platform und Microsoft Azure, fallen einige Unterschiede im NAS-Service auf.

- Anzeigen -





Von Oliver Krause, Cloud Solution Architect bei NetApp

Viele Unternehmen beschäftigt die Frage, was in der Cloud besser als im eigenen Rechenzentrum aufgehoben wäre. Ad hoc lässt sich darauf keine Antwort geben, sondern diese bedarf einiger Vorarbeiten. Die beginnen für ein Unternehmen damit, dass IT-, Einkaufs-, Rechts- und Fachabteilung gemeinsam die Geschäftsziele abstecken. Im Anschluss daran gilt es, Workloads zu identifizieren und zu katalogisieren, die sich in die Cloud verschieben lassen. Dabei müssen sowohl die Compliance als auch die EU-Datenschutz-Grundverordnung von Anfang an mitgedacht werden. Denn insbesondere im Organisatorischen liegt die Herausforderung bei einer Cloud-Migration. Das technische Abbilden fällt in der Regel dann leicht, birgt jedoch auch einige Aspekte, die Firmen berücksichtigen sollten. Das betrifft beispielsweise den Applikations- und Datenbankbetrieb in virtuellen Umgebungen.

Festplatten als eigenständige Fileserver
Unternehmen betreiben in der Regel Dutzende bis Hunderte Spezial-Anwendungen, die einen Shared Storage erfordern. Dieser wird als NAS (Network Attached Storage) realisiert, bei dem die Festplatten an keinen Server gebunden sind, sondern als eigenständiger Fileserver auftreten. Der Zugriff erfolgt über Protokolle wie NFS (Network File System) oder die Microsoft-Variante SMB (Server Message Block) sowie CIFS (Common Internet File System), HTTP (Hypertext Transfer Protocol) und FTP (File Transfer Protocol).

Im Datenbankbetrieb bietet die NAS-Technik die Vorteile, direkt auf Snapshots zugreifen, Backups in Sekundenschnelle erzeugen sowie kürzeres RTO (Recovery Time Object) erzielen zu können. Betreibt ein Unternehmen mehrere Datenbanken, ist es auf Transport Directories angewiesen. Diese sorgen für einen funktionierenden Datenaustausch, indem sie die Daten aus der Datenbank extrahieren und im NAS ablegen. Der geteilte Speicher dient sozusagen als Umschlagplatz für Daten. Wenn Unternehmen dann Datenbanken über NFS in einer virtuellen Umgebung mounten, profitieren sie zusätzlich: Sie können ganz einfach ihren NFS-Share vergrößern oder verkleinern.

On-Premises überzeugen NAS-Dienste durch ihre Eigenschaften und in der Qualität. Wer sich an diesen gewissen Standard gewöhnt hat, will ihn auch in der Cloud nutzen. Diese Erwartung ist verständlich. Allerdings sollten Unternehmen bereit sein, ein paar Kompromisse zu machen – und nicht die gleichen Ansprüche stellen. Deshalb empfiehlt es sich, genauer hinzuschauen und abzuwägen, welche Option für Shared Storage in der Cloud die eigenen Anforderungen am besten erfüllt. Danach wird die Applikation in die Cloud geschoben.

Die NAS-Dienste der Cloud-Provider
Betrachtet man die großen drei Cloud-Provider Amazon Web Services, Google Cloud Platform und Microsoft Azure, fallen einige Unterschiede im NAS-Service auf. So speichert Amazons EFS (Elastic File System) über NFS, wobei der Dienst etwas höhere Latenzen aufweist. Große Dateien lassen sich komfortabel lesen und schreiben. Beim intensiven Nutzen des NFS-Dienstes und Austausch von kleinen Daten verringert sich die Geschwindigkeit entsprechend. Die Alternative, Daten bei AWS über SMB zu teilen, ist etwas aufwendiger: Möchte ein Unternehmen dort Daten über SMB teilen, muss es sich einen Windows-Server provisionieren und diesen als Fileserver einrichten.

Auch Googles NFS-Dienst bringt alles Notwendige für Betrieb, Backup, Recovery und Hochverfügbarkeit mit. Allerdings verzichtet Google auf die SMB-Variante, die Microsoft natürlich bietet. Wer diesen Dienst nutzen möchte, sollte berücksichtigen, dass sich Cloud- und On-Premises-Anwendung unterscheiden. Mit Azure NetApp Files hat Microsoft nun einen eigenen NFS-Dienst eingeführt, der auf dem NAS-Betriebssystem ONTAP von NetApp aufbaut, das On-Premises und in der Cloud läuft.

Geteilte Filesysteme in der Cloud besser nutzen
Auf einen leichten Zugang zu NAS-Diensten in der Cloud und deren bessere Verwaltung setzen zwei Services von NetApp: Cloud Volumes ONTAP und Cloud Volumes Service. So richtet sich das erstgenannte Angebot vor allem an Anwender, die NetApp-Speichersysteme auch im eigenen Rechenzentrum einsetzen. Sie können ihre Daten zwischen On-Premises und der Cloud synchronisieren, was über SnapMirror sowie Cloud Sync funktioniert. ONTAP wird auf dem Hypervisor von AWS oder Google installiert und sorgt für eine effiziente Speichernutzung beim Cloud-Provider. Dazu tragen zusätzliche Features wie Snapshots, SnapMirror, Cloning, Datenreplikation und Datenreduktion bei. Letztendlich wird das Administrieren der Datenbanken effizienter. Denn falls beispielsweise etwas den Betrieb stören sollte, lassen sich Backup und Recovery sofort per Snapshot anstoßen.

NetApp übernimmt bei Cloud Volumes Service den NAS-Betrieb. Nutzer geben an, wie viel Kapazität sie bei AWS oder Google benötigen. Bevor ihre Daten in die Cloud exportiert werden, wählen sie aus, ob ihr einzurichtendes Filesystem über NFS oder SMB teilt. Eine schlichte Benutzeroberfläche dient dazu, Snapshots und Klone intuitiv zu erstellen. Außerdem lassen sich mit ihrer Hilfe Exportrichtlinien bequem festlegen.

Vereinfachtes Verlagern in die Cloud
Eine Anwendung, die ein geteiltes Filesystem benötigt, lässt sich in der Cloud betreiben. Nur stellt sich die Frage, ob das in jedem Fall sinnvoll ist. Anwenderfirmen müssen also abwägen, welchen Weg sie beim Verwalten von geteilten Speichern gehen wollen. Die NAS-Nutzerqualität, die sie aus ihren virtuellen Umgebungen gewohnt sind, kann ihnen noch kein Cloud-Provider in allen Punkten bieten. Den Bedarf nach mehr und besserem Service will NetApp mit Cloud Volumes ONTAP und Cloud Volumes Service abdecken. Der zweite Service vereinfacht vor allem Anwendergruppen, denen profundes Speicherwissen fehlt, das Migrieren einer Anwendung in die Cloud und deren Betrieb dort. Nach dem organisatorischen Kraftakt eine willkommene Erleichterung.
(NetApp: ra)

eingetragen: 24.07.19
Newsletterlauf: 13.08.19

NetApp: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Tipps und Hinweise

  • UCaaS-Lösungen bieten alle SaaS-Vorteile

    In vielen großen Unternehmen in Deutschland sollen derzeit die herkömmlichen On-Premise-Kommunikationslösungen ersetzt werden. Gesetzt ist meist - aufgrund der vielen Vorteile - der Schritt hin zu Unified Communications, bezogen als Software-as-a-Service (SaaS). Doch es gibt große Unterschiede zwischen verschiedenen UC-Lösungen, auch wenn sie oberflächlich betrachtet alle als SaaS-Angebote daherkommen. Dabei geht es nicht nur um den Preis, das Look and Feel oder einzelne Features. Die Unterschiede betreffen vielmehr alle Aspekte der Cloud-Strategie eines Großunternehmens. Der Unified-Communication-as-a-Service (UCaaS)-Anbieter Fuze kennt sich gut mit dieser Thematik aus und erläutert im folgenden Text die Unterschiede, damit Unternehmen eine fundierte Entscheidung über ihren künftigen UC-Partner treffen können.

  • Themen bei Microsoft-Kunden

    Laut IT-Dienstleisters Syntax stehen für Unternehmen, die Microsoft-Lösungen einsetzen, aktuell vor allem zwei große Aspekte im Mittelpunkt. Zum einen wird die Umsetzung von Modern-Workplace-Konzepten vorangetrieben, die dem Nutzer eine zentrale Schnittstelle für Kommunikation und Kollaboration mit einer einheitlichen Benutzeroberfläche bereitstellen und so interne und externe Prozesse effizienter gestalten. Der zweite große Trend ist die Migration oder Neuimplementierung kritischer Anwendungen und Prozesse auf Microsoft Azure als zentraler Public-Cloud-Plattform und die Nutzung von Plattformdiensten, die unter anderem auf künstlicher Intelligenz basieren und so neue Umsatzmodelle ermöglichen. Bei der Umsetzung dieser Ziele setzt Syntax auf ausgezeichnete Expertise, gerade wurde Constantin Klein, Team Lead Microsoft Consulting bei Syntax, zum zehnten Mal in Folge von Microsoft als "Most Valuable Professional" (MVP) ausgezeichnet.

  • Wechsel in die Cloud nicht von heute auf morgen

    IT-Verantwortliche müssen sich heutzutage mit den verschiedensten Herausforderungen auseinandersetzen, die eine Migration in die Cloud mit sich bringen. Obwohl sich die Cloud-Nutzung in den letzten Jahren stark verbreitet hat, haben einige Unternehmen trotzdem das Gefühl, noch nicht das volle Potenzial der Cloud ausgeschöpft zu haben. Die Gründe hierfür lassen sich allerdings leicht identifizieren und die Cloud Computing-Nutzung kann mithilfe ein paar grundlegender Maßnahmen entsprechend optimiert werden.

  • Nicht alle Cloud-Services sind gleich aufgebaut

    Governance und Agilität? Wie geht das denn zusammen? Schließlich bedeutet Agilität die Fähigkeit, schnell und flexibel zu handeln. Governance hingegen zielt darauf ab, Prozesse zu prüfen und zu kontrollieren - was die Dinge meist verlangsamt. Das muss aber nicht sein: Rackspace beispielsweise arbeitet mit Governance-Modellen, die explizit für den agilen Betrieb der (Public-)Cloud entwickelt wurden - und so beiden Ansprüchen gerecht werden können. Die Public Cloud erweist sich als extrem leistungsfähig. Aber: Mit der Kraft der Cloud gehen auch Herausforderungen einher. Bei AWS beispielsweise stehen derzeit 160 Dienste zur Verfügung und es werden jedes Jahr Hunderte (wenn nicht Tausende) neuer Funktionen veröffentlicht. Wie können Unternehmen hier sicherstellen, dass alle Compliance- und regulatorischen Verpflichtungen (z.B. DSGVO) auch eingehalten werden?

  • Auslagern statt selber machen

    Immer größere Datenmengen, vermehrter Einsatz digitaler Prozesse sowie Anforderungen an Compliance, Verfügbarkeit, Skalierbarkeit und Sicherheit stellen Unternehmen beim Management ihrer IT-Umgebung vor zum Teil große Herausforderungen. Denn eine funktionierende IT-Infrastruktur ist zwar notwendig für reibungslose Abläufe im Unternehmensalltag, doch geht der interne Aufbau von Hardware und Software mit hohen Kosten einher und benötigt ein hohes Maß an Fachwissen. Auch der ständige Einsatz von Fachpersonal verursacht hohe Ausgaben. Längst hat sich Outsourcing an entsprechende Dienstleister hier bewährt. "Nehmen Unternehmen externe Leistungen in Anspruch, profitieren sie von umfassendem Service und Know-how, sparen Kosten und minimieren Risiken", weiß Torben Belz, Geschäftsführer der Plutex GmbH aus Bremen, und ergänzt: "Doch viele Unternehmen scheuen diesen Schritt noch immer, weil sie Angst haben, dass das Outsourcing nicht reibungslos verlaufen und in der Folge zu vielen weiteren, möglicherweise langfristigen Problemen führen könnte."

  • Zukunftsinvestition: DataOps-Plattform

    Langsam, aber sicher ist DataOps kein Fremdwort mehr. Immer mehr Tools und Lösungen werben mit dem Begriff für sich. Wie sollen Unternehmen da noch den Überblick behalten? Hier sind drei Fragen, die sich Verantwortliche stellen müssen, wenn sie die richtige DataOps-Technologie für ihre Datenteams einsetzen möchten. DevOps ist heute unerlässlich für alle Unternehmen, die flexibel sein und möglichst schnell qualitativ hochwertige Produkte und Dienstleistungen anbieten wollen. Wer auf DevOps verzichtet, kann sich kaum über einen längeren Zeitraum gegenüber der Konkurrenz behaupten. Denn der Ansatz spielt eine entscheidende Rolle bei der Automatisierung der IT-Infrastruktur und des Softwareentwicklungszyklus. Dennoch hat DevOps bisher ein entscheidendes Element gefehlt, das für viele Innovationen zentral ist: die Datenbereitstellung. Genau hier setzt DataOps an.

  • Sämtliche Datenelemente dokumentieren

    Die aktuelle biMa-Studie der Sopra Steria Consulting liefert alarmierende Ergebnisse: Nahezu die Hälfte aller Unternehmen (49 Prozent) gibt an, dass ihre Daten für Analysen unvollständig, veraltet oder widersprüchlich sind. Neben der mangelhaften Datenqualität ist laut der Studie auch die fehlende Integration von Daten aus unterschiedlichsten Datenquellen eine Hürde. Unternehmen drohen aufgrund der Widrigkeiten im globalen Wettbewerb den Anschluss zu verlieren. Ohne Datenvirtualisierung ist es kaum möglich, fatale Entwicklungen dieser Art abzuwenden. Die voranschreitende Digitalisierung hat zu einem enormen Wachstum der weltweit verfügbaren Daten geführt. Während datengetriebene Innovationen in zahlreichen Industrieländern rasant voranschreiten, kämpfen Unternehmen im deutschsprachigen Raum nach wie vor mit unzureichenden technischen und organisatorischen Voraussetzungen. Traditionelle Ansätze wie ETL (Extract-Transform-Load), bei denen Daten für Analysen zunächst gespeichert und transformiert werden müssen, reichen nicht mehr aus, um Schritt zu halten.

  • Zukunftsinvestition: DataOps-Plattform

    Langsam, aber sicher ist DataOps kein Fremdwort mehr. Immer mehr Tools und Lösungen werben mit dem Begriff für sich. Wie sollen Unternehmen da noch den Überblick behalten? Hier sind drei Fragen, die sich Verantwortliche stellen müssen, wenn sie die richtige DataOps-Technologie für ihre Datenteams einsetzen möchten. DevOps ist heute unerlässlich für alle Unternehmen, die flexibel sein und möglichst schnell qualitativ hochwertige Produkte und Dienstleistungen anbieten wollen. Wer auf DevOps verzichtet, kann sich kaum über einen längeren Zeitraum gegenüber der Konkurrenz behaupten. Denn der Ansatz spielt eine entscheidende Rolle bei der Automatisierung der IT-Infrastruktur und des Softwareentwicklungszyklus. Dennoch hat DevOps bisher ein entscheidendes Element gefehlt, das für viele Innovationen zentral ist: die Datenbereitstellung. Genau hier setzt DataOps an.

  • Die Gefahr von Datenlecks steigt

    Daten befeuern Innovationen in Unternehmen: Informationen werden intelligent ausgewertet und in neues Wissen verwandelt, daraus entstehen Produkte, Lösungen und Dienste. Das funktioniert aber nur, wenn die migrierten Daten in hoher Qualität vorliegen und Betriebe sie schnell und bequem nutzen können. Weitere Voraussetzung: die Nutzung von Cloud Computing-Diensten, denn nur sie ermöglichen die digitale Transformation. Nur mit ihrer Hilfe können Daten schnell verarbeitet und bereitgestellt werden. Ohne Cloud-Nutzung wird kaum ein Unternehmen fit für die digitale Zukunft sein. Das hat zusätzliche Vorteile: Prozesse werden effizienter und agiler, die Kosten sinken. Wenn Unternehmen darauf verzichten, riskieren sie, ihr Geschäft auszubremsen und Marktanteile zu verlieren. Für viele deutsche Unternehmen ist das inzwischen selbstverständlich: 73 Prozent nutzen bereits Cloud Computing, so der "Cloud-Monitor 2019" von KPMG und Bitkom.

  • Bandbreiten- oder Netzwerkprobleme

    Multi-Cloud-Infrastrukturen haben einen großen Vorteil: Sie erlauben es dem Nutzer, Public-Cloud- und Private-Cloud-Services so miteinander zu verbinden, wie es gewünscht oder nötig ist. Damit bleibt ein Unternehmen flexibel und unabhängig. Die Verantwortlichen profitieren davon allerdings nur, wenn sie sich der Stolpersteine bewusst sind, die eine Multi Cloud mit sich bringt und diese zu umgehen wissen. Eine erste große Herausforderung, die sich in einem anlaufenden Multi-Cloud-Projekt oftmals stellt und unnötig Kosten provoziert, ist der Datentransfer. Denn bei der Migration - ob von einer On-Premises-Infrastruktur in die Cloud oder von einem Public-Cloud-Anbieter zu einem anderen - stoßen IT-Verantwortliche oft auf unvermutete Bandbreiten- oder Netzwerkprobleme.