- Anzeige -


Sie sind hier: Startseite » Fachartikel » Grundlagen

Automatisierte Speicherrichtlinien & Daten-GPS


Das Daten-GPS – Wissen, wo die Daten liegen
Bevor sich Cloud Computing durchsetzte, war der Speicherort von Daten nie ein wirkliches Problem

- Anzeigen -





Von Jon Toor, CMO, Cloudian

Die Globalisierung hat die Welt schrumpfen lassen. Nicht nur Reisende ziehen heute rund um den Globus, auch Daten sind dank Cloud Computing äußerst mobil und werden von Unternehmen aus den unterschiedlichsten Gründen zwischen Rechenzentren verschoben. Wir Menschen fühlen uns im eigenen Zuhause am sichersten. Auch für Unternehmensdaten gilt, dass das Risiko sie bei der Migration über Ländergrenzen hinweg zu verlieren, natürlich steigt. Als Mensch ist es heute mittels GPS sehr einfach, einen Standort zu bestimmen. Damit auch Unternehmen immer genau wissen, wo ihre Daten physisch gespeichert sind, bieten sich dank automatisierten Speicherrichtlinien und einem Daten-GPS neue Methoden, den exakten Standort von Daten festzulegen.

Geografische Grenzen haben Folgen
Bevor sich Cloud Computing durchsetzte, war der Speicherort von Daten nie ein wirkliches Problem. Sie wurden auf von den Unternehmen selbst kontrollierten Servern in eigenen Standorten gespeichert. Heute ist die Situation viel komplexer: Scale-out-Storage kann sich über mehrere Rechenzentren und Standorte erstrecken. Ein einzelner Namespace kann heute weit über die Grenzen eines Standortes oder sogar eines Landes hinausgehen. In einer hybriden Cloud können einige Daten vor Ort gehalten und andere Datenarten zu diversen Cloud Computing-Diensten migriert werden.

Bei ständig steigenden Datenbeständen und zahlreichen Orten, wo diese gelagert werden können, wird es immer schwieriger den Überblick zu behalten, wo genau die Daten überhaupt sind. Dies kann jedoch sehr ernste Folge haben, da Unternehmen sich an die Gesetze an ihrem Standort halten müssen. In vielen Ländern regeln heute Datenschutzgesetze die möglichen Speicherorte und Zugriffsbestimmungen und insbesondere innerhalb der EU gelten strenge Datenschutzregeln. Die Gesetzgebung ändert sich jedoch regelmäßig, was die Einhaltung von Vorschriften erschwert – vor allem, wenn passende Steuerungsmittel fehlen.

Wo genau sind die Daten eigentlich?
Die Kontrolle des Zugriffs auf Daten gehört seit jeher zur Kernkompetenz von Serviceanbietern. Die Steuerung, wo sich Daten aufhalten, hatte bisher hingegen eine weniger hohe Priorität. Dies führte zu der Situation, dass Cloud-Anbieter für die in ihren Rechenzentren gespeicherten Daten ein Dutzend Verschlüsselungsarten und physische Sicherheitseinrichtungen anbieten, ihren Kunden auf Anhieb aber nicht einmal sagen können, wo sich deren Daten physisch befinden.

Dies liegt daran, dass viele Serviceanbieter aus Sicherheitsgründen auf mehrere verteilte Standorte setzen. Im schlimmsten Fall international verteilt, samt Anbindung in die Public Cloud. Auch hybride Cloud Computing-Szenarien mit mehreren Standorten, vor Ort und in der Cloud, erhöhen die Unsicherheit. Um sicher zu sein, wo sich Daten physisch befinden, bieten nun automatisierte Speicherrichtlinien und ein Daten-GPS die richtigen Lösungen.

Automatisierte Speicherrichtlinien
Richtlinien für die Speichersicherung sollen sowohl die Sicherheit als auch den Schutz der Daten gewährleisten. Allerdings sind diese Regeln immer nur so gut, wie die Menschen, die sie umsetzen. Einen Schritt weiter als normale Regularien, die den Speicherort von Daten festlegen können, gehen automatisierte Speicherrichtlinien, die für Personen oder Gruppen in Organisationen automatisch festlegen, wo und wie Daten gespeichert und verschoben werden dürfen.

So können rollenbasierte Speicherrichtlinien beispielsweise für IT-Administratoren oder geschäftsführenden Personen erstellt werden, die es ihnen ermöglichen, Daten über eine beliebige Anzahl physischer Rechenzentren zu verteilen und dennoch gemeinsam zu verwalten. So können effektiv Regeln für die physische Speicherung von Kopien erstellt werden. Beispielsweise eine Regel für jeweils zwei Kopien in einem Rechenzentrum in Deutschland, eine Kopie in einem niederländischen Rechenzentrum, aber keine Kopie in den USA. So lassen sich Datensicherheit und Datenschutz über die Datensteuerung verbinden. Noch einen Schritt weiter geht das Daten-GPS, das den Speicherort von Daten bis auf das Laufwerk im Server genau ermitteln kann und damit volle Transparenz schafft.

RZ 1, Rack 3, Server 4, Laufwerk 4 – das Daten-GPS macht’s möglich
Selbst wenn man genaue rollenbasierte Richtlinien definiert hat - woher weiß man, ob eine einmal eingerichtete Richtlinie auch sauber ausgeführt wird? Hier kommt das Daten-GPS ins Spiel. Ähnlich wie ein GPS-Gerät lässt das Daten-GPS exakt wissen, wo jeder Teil von Daten gespeichert liegt: Ob vor Ort, in einer hybriden Cloud oder bei einem gehosteten Cloud-Dienst. So lässt sich nach dem Einrichten einer Speicherrichtlinie deren Funktionalität testen und validieren.

Ein Daten-GPS verschafft IT-Einrichtungen neben zusätzlicher Sicherheit auch zusätzliche Glaubwürdigkeit, da man damit Kunden die Standorte ihrer Daten weltweit exakt angeben kann. Ein Daten-GPS zeigt nicht nur an, wie viele Kopien einer Datei es gibt, sondern auch, wo sich diese Dateien befinden. Beispielsweise im deutschen Rechenzentrum 1, auf Rack 3, auf Server 4, auf Laufwerk 4. Es funktioniert ähnlich, als würde man für eine bestimmte Datei eine Nadel auf eine Weltkarte stecken.

Früher mag vielen Unternehmenskunden egal gewesen sein, wo ihre Daten gespeichert wurden - nur der Zugriff darauf war relevant. Doch je mehr Unternehmen heute hybride und öffentliche Cloud Computing-Services in ihren Betrieb integrieren, desto kritischer werden die Datenkontrolle und die Datensichtbarkeit.

Für einige Anwendungen und Dateien bestimmt der Grad der benötigten Sicherheit den Grad der notwendigen Granularität. Auch im seltenen Fall eines Einbruchs in ein Rechenzentrum, falls ein physischer Server sabotiert oder gestohlen wird, ist detailliertes Wissen über die dort gespeicherten Daten wichtig. Mit automatisierten Speicherrichtlinien und einem Daten-GPS können Unternehmen ab sofort sicherstellen, dass ihre Daten auch dort sind, wo sie hingehören. (Cloudian: ra)

eingetragen: 29.05.17
Home & Newsletterlauf: 08.06.17

Cloudian: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Grundlagen

  • Es ist an der Zeit, die Cloud zu dezentralisieren

    Heute beheimatet die Erde 206 souveräne Staaten. Souveränität ist, wie uns das Lexikon erklärt, das "volle Recht und die Macht eines Regierungsorgans über sich selbst, ohne Einmischung von außen". In gewisser Weise hat die in den frühen 2000er Jahren eingeführte Public Cloud die Souveränität vieler Staaten in Frage gestellt: Sie zentralisierte Daten- und Cloud Computing-Services auf sehr effiziente Weise, um Kunden in jeder Ecke der Welt zu bedienen - eine Welt ohne Grenzen. Verbraucher und Unternehmen begrüßten das befreiende Konzept, das sich schnell weiterentwickelte.

  • Cloud-Sicherheit & Shared Responsibility-Modell

    Viele Unternehmen setzen auf eine Kombination verschiedener Backup-Lösungen, häufig über mehrere Standorte hinweg. Im Krisenfall macht es solch eine Strategie jedoch oft schwierig, Dateien zeitnah wiederherzustellen. Dagegen bieten Cloud-integrierte Lösungen einfaches Testen der Disaster-Recovery-Strategie und im Notfall die rasche Rückkehr zum Normalbetrieb. Daten sind für Unternehmen heute wertvolle Rohstoffe und müssen besser gesichert werden als je zuvor. Gerade in Zeiten weltweiter Ransomware-Attacken ist eine profunde Backup- und Disaster Recovery-Strategie daher unabdingbar geworden, um im Krisenfall sofort reagieren zu können und die Geschäftskontinuität zu sichern. Doch bei der Disaster Recovery geht es nicht nur um Ransomware-Bedrohungen und Advanced Threats, sondern ebenso um die Wiederherstellung nach Hardware-Ausfällen von IT-Komponenten wie Servern und Storage-Systemen, aufgrund menschlicher Fehler oder einer Naturkatastrophe.

  • Wächter des Cloud-Datenschatzes

    Im Zuge der Digitalisierung wächst die Datenmenge, die Unternehmen täglich verarbeiten, stetig an. Dies spiegelt sich auch in der gestiegenen Nutzung von Cloud Computing-Anwendungen in den vergangenen Jahren wider. Unternehmensdaten sind rund um die Uhr überall zugänglich, ermöglichen effiziente Arbeitsabläufe und - zumindest auf den ersten Blick - etwas weniger Verwaltungsaufwand für die IT-Abteilung. Dieser Effekt relativiert sich jedoch, wenn man die Cloud Computing-Nutzung unter dem Aspekt der Sicherheit betrachtet. Die damit einhergehenden Risiken und neuen Bedrohungen erfordern fortschrittliche Sicherheitstechnologien, um den Schutz von Unternehmensdaten gewährleisten zu können.

  • Cloud-Sicherheit: Shared Responsibility-Modell

    Viele Unternehmen setzen auf eine Kombination verschiedener Backup-Lösungen, häufig über mehrere Standorte hinweg. Im Krisenfall macht es solch eine Strategie jedoch oft schwierig, Dateien zeitnah wiederherzustellen. Dagegen bieten Cloud-integrierte Lösungen einfaches Testen der Disaster-Recovery-Strategie und im Notfall die rasche Rückkehr zum Normalbetrieb. Daten sind für Unternehmen heute wertvolle Rohstoffe und müssen besser gesichert werden als je zuvor. Gerade in Zeiten weltweiter Ransomware-Attacken ist eine profunde Backup- und Disaster Recovery-Strategie daher unabdingbar geworden, um im Krisenfall sofort reagieren zu können und die Geschäftskontinuität zu sichern.

  • DevOps: Eine Gefahr oder die Zukunft für ITSM?

    Der digitale Wandel beeinflusst die Unternehmenslandschaft stark. Auch im IT-Service-Management stehen Entscheider zahlreichen neuen Herausforderungen gegenüber. Die Verzahnung von Entwicklung und Betrieb, auch Development and Operations, kurz DevOps, spielt eine immer größere Rolle. Häufig stellen sich die Verantwortlichen jedoch eine Frage: Ist DevOps eine Gefahr oder die Zukunft des IT-Service-Managements (ITSM)? Zu den Ursachen für etwaige Bedenken zählt unter anderem die Infragestellung der Stabilität des IT-Betriebes. Angebote aus der Cloud werden mit einem Angriff auf die eigene IT gleichgesetzt und gestandene ITIL-Change-Manager können sich eine weitere Verkürzung und Vereinfachung der Prozesse nicht mehr vorstellen. Dabei lässt sich bei Betrachtung des Bereichs "Entwicklung und Betrieb von Applikationen" feststellen, dass es zahlreiche Gründe gibt, sich mit den Inhalten von DevOps zu befassen. Veränderungen im IT-Service-Management stellen dabei stets eine Notwendigkeit dar.

  • Das WAN weicht in die Wolke

    Unternehmen als abgeschlossene Einheiten sind passé. Neue Arbeitskonzepte wie mobiles Arbeiten oder BYOD lassen Mauern bröckeln - gerade auch im Hinblick auf Unternehmensnetzwerke. Unternehmen mit Niederlassungen oder Filialen im Handel müssen neben stationärer IT wie Kassensystemen auch mobile oder temporäre Geräte ins Netzwerk einbinden, zum Beispiel Digital-Signage-Terminals. Und Kunden setzen meist ein offenes WLAN voraus. Die digitale Transformation stellt neue Herausforderungen an das vormals Hardware-orientierte Wide-Area-Network (WAN)-Management. Software- und Cloud-definierte Ansätze erleichtern die Administration bei gleichzeitig hohen Sicherheitsstandards.

  • DevOps gegen IT-Operations

    Ein IT-Infrastrukturteam hat es heutzutage nicht leicht. Einerseits muss es den Betrieb des herkömmlichen Rechenzentrums aufrechterhalten, gleichzeitig soll es die strategische Digitalisierung des Unternehmens vorantreiben. Als wenn das nicht schon Herausforderung genug wäre, sollen die IT-ler zusätzlich komplett neue Technologien bereitstellen, um die neuen DevOps-Kollegen bestmöglich bei Neuerungen und schnelleren Release-Zyklen zu unterstützen. Anforderungen von DevOps an eine flexible und automatisierte Unternehmensinfrastruktur sind nicht immer einfach zu erfüllen und so wird der Trend zu DevOps für Infrastrukturteams eine zusätzliche Belastung. Prallen doch die unterschiedlichen Welten der IT-Operations und des DevOps-Teams aufeinander.

  • Automatisierte Speicherrichtlinien & Daten-GPS

    Die Globalisierung hat die Welt schrumpfen lassen. Nicht nur Reisende ziehen heute rund um den Globus, auch Daten sind dank Cloud Computing äußerst mobil und werden von Unternehmen aus den unterschiedlichsten Gründen zwischen Rechenzentren verschoben. Wir Menschen fühlen uns im eigenen Zuhause am sichersten. Auch für Unternehmensdaten gilt, dass das Risiko sie bei der Migration über Ländergrenzen hinweg zu verlieren, natürlich steigt. Als Mensch ist es heute mittels GPS sehr einfach, einen Standort zu bestimmen. Damit auch Unternehmen immer genau wissen, wo ihre Daten physisch gespeichert sind, bieten sich dank automatisierten Speicherrichtlinien und einem Daten-GPS neue Methoden, den exakten Standort von Daten festzulegen.

  • Mit SaaS & HaaS die IT-Abteilung entlasten

    In vielen Unternehmen stehen CIOs vor der Aufgabe, mit einer sich rasch entwickelnden IT-Welt Schritt halten zu müssen. Hinzu kommt, geeignetes Personal mit dem entsprechenden Know-how zu finden und sich stets gegen zunehmende Sicherheitsrisiken zu wappnen. Diese Herausforderungen beanspruchen zeitliche und finanzielle Ressourcen in der IT-Abteilung, die Unternehmen an anderer Stelle dringender bräuchten. Im Rahmen von Managed Services wie Software-as-a-Service (SaaS) und Hardware-as-a-Service (HaaS) werden Standardaufgaben an externe Dienstleister ausgelagert. Das schafft Freiräume und entlastet die IT-Abteilung. Welche Fragen sind relevant, um zu erkennen, ob auch das eigene Unternehmen von Managed Services profitieren kann.

  • Die Zukunft des File Sharing

    Um den Austausch von Forschungsdaten zwischen verschiedenen Teams am CERN zu ermöglichen, erfand Tim Berners-Lee in den achtziger Jahren, als Nebenprodukt sozusagen, das Internet. Heute ist das Internet die tragende Säule der weltweiten Kommunikation und aus unserem digitalen Leben nicht mehr wegzudenken. Überraschenderweise hat sich seit den frühen Tagen des Internets kaum etwas verändert: Nach wie vor werden für die Übermittlung von Dateien Protokolle aus den Anfangstagen des Internets genutzt. Zum damaligen Zeitpunkt war jedoch eine Welt, in der Datenmengen exponentiell wachsen, Hacker an allerlei Daten interessiert sind und Organisationen in denen zehntausende Mitarbeiter täglich millionenfach Dateien teilen, noch nicht vorstellbar. Worauf sollten Unternehmen also achten, wenn sie eine zukunftssichere File Sharing-Lösung nutzen möchten? Und welche neuen Technologien halten Einzug um Filesharing sicherer, komfortabler und schneller zu machen?