- Anzeige -


Sie sind hier: Startseite » Fachartikel » Grundlagen

Cloud als Backup-Speicher


Mit einem Cloud Storage Gateway die Backup-Daten schnell und sicher in der Cloud ablegen
Werden Daten komplett oder teilweise in die Cloud ausgelagert, spart dies zusätzliche Investitionskosten für Storage-Kapazitäten im Backup-Umfeld

Von Herbert Bild, Solutions Marketing Manager, NetApp

(13.01.16) - Rasant wachsende Datenmengen sowie die steigende Abhängigkeit der Unternehmen von ihren operativen Daten setzen die IT-Abteilung gewaltig unter Druck. CIOs müssen daher ihre Strategie für das Datenmanagement den veränderten Realitäten anpassen. Ein mögliches Werkzeug hierfür sind IT-Ressourcen aus der Cloud, die in die Backup- und Storage-Infrastruktur eingebunden werden.

Die IT-Abteilung kann es sich nicht mehr leisten, auf die Cloud zu verzichten. Immer mehr Unternehmen in Deutschland setzen mittlerweile auf diese Technologie. In der Studie "Cloud-Monitor 2015" von KPMG und Bitkom vermelden die Analysten, dass bereits 44 Prozent der deutschen Unternehmen IT-Leistungen aus der Cloud beziehen. Weitere 24 Prozent planen oder diskutieren noch über den Einsatz. Dabei sind die gemachten Erfahrungen durchweg positiv, wie bis zu 78 Prozent der Befragten berichten.

Der ideale Einstieg in die Cloud ist die Nutzung als Backup-Speicher. Heute ist es wichtiger denn je, die operativen Daten schnell und effizient zu sichern. Eine Umfrage der Initiative "Cloud Services Made in Germany" im deutschen Mittelstand hat ergeben, dass bereits 95 Prozent der Industrieunternehmen ihre Geschäftsprozesse ohne operative Daten nicht mehr in der gewohnten Weise ausführen können. Bei 51 Prozent der Unternehmen droht sogar ein vollständiger Stillstand der Organisation, wenn kein Zugriff mehr auf die IT möglich ist.

Trotz dieser Einsicht muss der CIO immer wieder mit der Geschäftsführung diskutieren, ob die angeforderten Investitionen für das Datenmanagement tatsächlich notwendig sind. In diesem Zusammenhang ist vor allem die Frage relevant, ob das Backup in der vollen Fertigungstiefe weiterhin selbst erbracht werden muss. Mit dem Einzug der Cloud in die Unternehmens-IT sowie ständig steigenden Netzwerkkapazitäten zu günstigen Preisen, wird es immer naheliegender, die Cloud in die Backup-Prozesse zu integrieren. So zählt die Datensicherung mit ihren standardisierten und wiederkehrenden Tätigkeiten zu den IT-Leistungen, die ein hohes Einsparpotenzial versprechen. Zudem tragen Aufgaben rund um das Backup nicht zur Wertschöpfung bei und sollten daher weitgehend automatisiert ablaufen.

Pluspunkte für die Cloud
Werden Daten komplett oder teilweise in die Cloud ausgelagert, spart dies zusätzliche Investitionskosten für Storage-Kapazitäten im Backup-Umfeld. Der Cloud-Speicher ist sehr flexibel und nach Bedarf buchbar und wird auch von Dienstleistern angeboten, die ihr Rechenzentrum in Deutschland betreiben. Der Start gelingt sehr einfach, denn außer dem Integrationsaufwand ist lediglich eine leistungsfähige Internet-Anbindung notwendig.

Dennoch gilt es bei der Cloud Computing-Nutzung einige Rahmenbedingungen zu beachten. So müssen sich beispielsweise die Restore-Zeiten nach einem Datenverlust, und damit verbunden ein eventueller Produktionsausfall, in einem Rahmen bewegen, den das operative Geschäft verkraften kann. Wer auf herkömmlichen Weg Backups in die Cloud speichern würde, müsste im ungünstigsten Fall mehrere Delta-Sicherungen einspielen. Je nach Internet-Anbindung und Datenmenge kann dies Stunden bis Tage dauern und schmerzhafte Umsatzverluste nach sich ziehen.

Darüber hinaus sollten die neuen Cloud Computing-Ressourcen für die gesamte IT-Infrastruktur zur Verfügung stehen. Es ist wenig hilfreich, wenn durch die Cloud-Technologien ein neues Storage-Silo im Unternehmen entsteht.

Per Mausklick in die Cloud
Wie ein weitgehend automatisiertes Cloud-Backup ohne größere Umbauten der IT-Infrastruktur gelingt, zeigen Lösungen auf Basis von Cloud Storage Gateways. Diese sind als physische oder virtuelle Maschine verfügbar und übernehmen den Datentransfer der eigenen Backup-Umgebung mit den Cloud-Providern. Ein solches System speichert die von der Backup-Software gelieferten Daten, die aus beliebigen Anwendungen, Datenbanken oder Speicher-Silos kommen können. Diese werden anschließend dedupliziert, komprimiert, verschlüsselt und in beliebigen Cloud-Ressourcen abgelegt.

Der internen IT-Infrastruktur gegenüber präsentiert sich das Cloud Gateway ähnlich wie ein Fileshare auf einem Serverlaufwerk. Für den Zugriff werden Protokolle wie CIFS (Common Internet File System) und NFS (Network File System) verwendet. Somit kann die IT bestehende Abläufe und Software für die Datensicherung direkt weiterverwenden. Dies sichert bereits getätigte Investitionskosten und beschleunigt die Implementierung. Die Lösung eignet sich ideal für den Einsatz in heterogenen IT-Umgebungen, da sich so verschiedene Datentöpfe anzapfen und über ein zentrales Gateway als Backup in die Cloud sichern lassen. Ein weiterer Anwendungsfall ist die Ablösung von VTL-Clustern (Virtual-Tape-Library) oder von herkömmlichen Tape-basierenden Backup-Umgebungen. (NetApp: ra)

NetApp: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Grundlagen

  • File Sharing im Unternehmen: Strategie gesucht

    Um Daten auszutauschen setzen die meisten Unternehmen noch immer auf die gute alte E-Mail, auch wenn diese Technologie offensichtlich nicht mehr auf dem neuesten Stand der Technik ist. Auch das ebenso veraltete FTP ist noch weit verbreitet, wenn es darum geht größere Dateien zu übermitteln. Den IT-Alptraum perfekt machen, intern oft nicht überwachte, File-Sharing-Dienste in der Cloud a la Dropbox & Co. Um striktere Compliance-Vorgaben zu erfüllen und die offensichtlich nicht gegebene Datensicherheit für ihr Unternehmen zu gewährleisten suchen IT-Verantwortliche suchen händeringend nach eine umfassenden Strategie um die genannten, unzuverlässigen Werkzeuge zu ersetzen und somit die Kontrolle über ihre sensiblen Daten zurückzugewinnen.

  • Privacy Shield und die Folgen

    Am 1. August 2016 trat das neue Privacy Shield-Abkommen in Kraft, das für Kunden und Anbieter von Cloud Computing-Services wieder Rechtssicherheit bieten und den transatlantischen Datenfluss wiederherstellen soll. Ob Privacy Shield die Nutzer besser schützen wird als der Vorgänger Safe Harbor wird von vielen Experten jedoch bezweifelt. Auch Subhashini Simha von Thru zweifelt das Abkommen an. Ihre Einschätzung der Folgen von Privacy Shield für Unternehmen hat sie in diesem Artikel zusammengefasst. Demnach benötigen Unternehmen zukünftig mehr denn je Flexibilität ihre Daten im Notfall auch im eigenen Rechenzentrum zu hosten und sie bei sich ändernder Rechtslage aus anderen Regionen abzuziehen.

  • Herausforderungen im Wissensmanagement

    Der Erfolg eines Projekts hängt von vielen Faktoren ab: Unterstützung durch das Top-Management, entsprechende Organisationsstrukturen sowie qualifizierte Mitarbeiter. Zudem spielt Wissen eine wichtige Rolle im Projektmanagement: Welche Methode eignet sich für das Projekt? Mit welchen Maßnahmen lässt sich das Projektziel erreichen? Wie können die Projektanforderungen erfüllt werden? Diese und weitere Fragen müssen Projektleiter beantworten können. Das Problem: Oftmals sind sich diese gar nicht bewusst, was sie und ihre Mitarbeiter wissen oder eben auch nicht wissen. Ein professionelles Wissensmanagement kann das Projektmanagement wirkungsvoll unterstützen, indem es vorhandenes Wissen bündelt, neue Erkenntnisse aufnimmt und alles für zukünftige Projekte verfügbar macht.

  • Unified Communications & Cloud-Kommunikation

    Den Begriff "Unified Communications" (UC) gibt es schon seit vielen Jahren. Er bezeichnet die Integration von Kommunikationsmedien in einer einheitlichen Anwendungsumgebung. Durch die Zusammenführung verschiedener Kommunikationsdienste soll UC die Erreichbarkeit der Kommunikationspartner verbessern und damit die Geschäftsprozesse beschleunigen.

  • Multi Cloud Sourcing

    Die Vorteile von Cloud Computing sind inzwischen bekannt: hohe Flexibilität und Skalierbarkeit zu genau kalkulierbaren Kosten. Doch wer Dienste von mehreren Anbietern nutzt, steht schnell vor einem Problem. Er muss die nötigen Informationen jedes Mal neu übertragen, wodurch unterschiedliche Datenbestände und Mehraufwand für das Management entstehen können. Ein einfaches Springen von Wolke zu Wolke ermöglicht Multi Cloud Sourcing. Für viele Unternehmen ist die Hybrid Cloud attraktiv. Sie kombiniert Skalierbarkeit mit Effizienz und verspricht zusätzlich Kostenersparnisse. Denn die Kunden müssen keine teuren Kapazitäten für Spitzenzeiten bereithalten, die im Rest des Jahres nicht genutzt werden.

  • Cloud als Backup-Speicher

    Rasant wachsende Datenmengen sowie die steigende Abhängigkeit der Unternehmen von ihren operativen Daten setzen die IT-Abteilung gewaltig unter Druck. CIOs müssen daher ihre Strategie für das Datenmanagement den veränderten Realitäten anpassen. Ein mögliches Werkzeug hierfür sind IT-Ressourcen aus der Cloud, die in die Backup- und Storage-Infrastruktur eingebunden werden. Die IT-Abteilung kann es sich nicht mehr leisten, auf die Cloud zu verzichten. Immer mehr Unternehmen in Deutschland setzen mittlerweile auf diese Technologie. In der Studie "Cloud-Monitor 2015" von KPMG und Bitkom vermelden die Analysten, dass bereits 44 Prozent der deutschen Unternehmen IT-Leistungen aus der Cloud beziehen. Weitere 24 Prozent planen oder diskutieren noch über den Einsatz. Dabei sind die gemachten Erfahrungen durchweg positiv, wie bis zu 78 Prozent der Befragten berichten.

  • Mit Cloud-Datenbanken vertraut machen

    In IT-Abteilungen vollzieht sich der größte Umbruch seit Einführung des PC und die modernen Rechenzentren müssen weiterentwickelt werden, um mit dieser Entwicklung Schritt zu halten. Dies ist besonders kritisch, da die IT für fast alle Geschäftsfunktionen eine immer wichtigere Rolle spielt. Unternehmen jeder Größe nutzen alle verfügbaren Technologien und Best Practices, um die Abläufe zu optimieren und Ineffizienzen zu reduzieren, und für viele bedeutet dies in erster Linie zwei Dinge: Virtualisierung und Cloud Computing. Jede IT-Abteilung versucht Zeit zu sparen, die Produktivität zu steigern und Abläufe zu optimieren. Mithilfe der Cloud und der Virtualisierung können in diesem Zusammenhang diese Komponenten nun im gesamten Unternehmen effizienter gestaltet werden.

  • Cloud Computing: Erkundungsphase abgeschlossen

    Das Zeitalter der Entdeckungen im Cloud Computing ist vorbei. Die Unternehmen in Deutschland sind in der Cloud Computing-Ära angekommen, sie haben sich orientiert und ihre Präferenzen definiert. Eine Reihe von Studien, die Ende 2014, Anfang 2015 vorgelegt wurden, zeigen, dass das Ergebnis durchaus sportlich ist - für die Anbieter von Cloud Computing-Lösungen. Denn die Unternehmen wollen sowohl den Komfort von Cloud Computing-Services als auch die Sicherheit klassischer IT; oder anderes formuliert: die kostengünstige Flexibilität, die Amazon, Microsoft oder Google bieten, gepaart mit Privatsphäre und Rechtssicherheit. Und nur wer beide Seiten in hinreichendem Umfang bereitstellen kann, ist im Geschäft.

  • Cloud Computing-Dienste & Weitverkehrsnetze

    Die Nutzung von Cloud Computing-Diensten nimmt drastisch zu. Das gilt vor allem von Software-as-a-Service (SaaS)-Angebote. Doch Unternehmen, die SaaS-Applikationen aus einem Cloud-Rechenzentrum beziehen, müssen die Eigenheiten von Weitverkehrsnetzen berücksichtigen. Vor allem WAN-Verbindungen über das Internet leiden häufig unter zu hohen Latenzzeiten und Paketverlustraten. Abhilfe schafft eine Overlay-Infrastruktur - eine Software-Defined WAN Fabric.

  • Citizen Developer: Software Quick-and-Clean

    Citizen Developer sind die legitimen Nachfahren der berüchtigten Power-User der 80er- und 90er-Jahre. Das waren jene Kollegen, die - besonders gerne in dBase, Excel und Word - riesige Tabellen, kilometerlange Programme und verwinkelte Datenbanken schufen, mit denen sie ihre IT-Abteilungen in die Verzweiflung trieben. Mit Programmierstandards und -regeln wollten sich Power-User nicht lange aufhalten, für sie war das Wichtigste, dass sie schnell fertige Lösungen vorweisen konnten. Und damit waren sie oft die letzte und einzige Rettung für Fachabteilungen, die eben nicht zwei Jahre auf ein ausgereiftes, perfekt strukturiertes und gut durchgetestetes Programm warten konnten.