- Anzeige -


Sie sind hier: Startseite » Fachartikel » Grundlagen

Automatisierte Speicherrichtlinien & Daten-GPS


Das Daten-GPS – Wissen, wo die Daten liegen
Bevor sich Cloud Computing durchsetzte, war der Speicherort von Daten nie ein wirkliches Problem

- Anzeigen -





Von Jon Toor, CMO, Cloudian

Die Globalisierung hat die Welt schrumpfen lassen. Nicht nur Reisende ziehen heute rund um den Globus, auch Daten sind dank Cloud Computing äußerst mobil und werden von Unternehmen aus den unterschiedlichsten Gründen zwischen Rechenzentren verschoben. Wir Menschen fühlen uns im eigenen Zuhause am sichersten. Auch für Unternehmensdaten gilt, dass das Risiko sie bei der Migration über Ländergrenzen hinweg zu verlieren, natürlich steigt. Als Mensch ist es heute mittels GPS sehr einfach, einen Standort zu bestimmen. Damit auch Unternehmen immer genau wissen, wo ihre Daten physisch gespeichert sind, bieten sich dank automatisierten Speicherrichtlinien und einem Daten-GPS neue Methoden, den exakten Standort von Daten festzulegen.

Geografische Grenzen haben Folgen
Bevor sich Cloud Computing durchsetzte, war der Speicherort von Daten nie ein wirkliches Problem. Sie wurden auf von den Unternehmen selbst kontrollierten Servern in eigenen Standorten gespeichert. Heute ist die Situation viel komplexer: Scale-out-Storage kann sich über mehrere Rechenzentren und Standorte erstrecken. Ein einzelner Namespace kann heute weit über die Grenzen eines Standortes oder sogar eines Landes hinausgehen. In einer hybriden Cloud können einige Daten vor Ort gehalten und andere Datenarten zu diversen Cloud Computing-Diensten migriert werden.

Bei ständig steigenden Datenbeständen und zahlreichen Orten, wo diese gelagert werden können, wird es immer schwieriger den Überblick zu behalten, wo genau die Daten überhaupt sind. Dies kann jedoch sehr ernste Folge haben, da Unternehmen sich an die Gesetze an ihrem Standort halten müssen. In vielen Ländern regeln heute Datenschutzgesetze die möglichen Speicherorte und Zugriffsbestimmungen und insbesondere innerhalb der EU gelten strenge Datenschutzregeln. Die Gesetzgebung ändert sich jedoch regelmäßig, was die Einhaltung von Vorschriften erschwert – vor allem, wenn passende Steuerungsmittel fehlen.

Wo genau sind die Daten eigentlich?
Die Kontrolle des Zugriffs auf Daten gehört seit jeher zur Kernkompetenz von Serviceanbietern. Die Steuerung, wo sich Daten aufhalten, hatte bisher hingegen eine weniger hohe Priorität. Dies führte zu der Situation, dass Cloud-Anbieter für die in ihren Rechenzentren gespeicherten Daten ein Dutzend Verschlüsselungsarten und physische Sicherheitseinrichtungen anbieten, ihren Kunden auf Anhieb aber nicht einmal sagen können, wo sich deren Daten physisch befinden.

Dies liegt daran, dass viele Serviceanbieter aus Sicherheitsgründen auf mehrere verteilte Standorte setzen. Im schlimmsten Fall international verteilt, samt Anbindung in die Public Cloud. Auch hybride Cloud Computing-Szenarien mit mehreren Standorten, vor Ort und in der Cloud, erhöhen die Unsicherheit. Um sicher zu sein, wo sich Daten physisch befinden, bieten nun automatisierte Speicherrichtlinien und ein Daten-GPS die richtigen Lösungen.

Automatisierte Speicherrichtlinien
Richtlinien für die Speichersicherung sollen sowohl die Sicherheit als auch den Schutz der Daten gewährleisten. Allerdings sind diese Regeln immer nur so gut, wie die Menschen, die sie umsetzen. Einen Schritt weiter als normale Regularien, die den Speicherort von Daten festlegen können, gehen automatisierte Speicherrichtlinien, die für Personen oder Gruppen in Organisationen automatisch festlegen, wo und wie Daten gespeichert und verschoben werden dürfen.

So können rollenbasierte Speicherrichtlinien beispielsweise für IT-Administratoren oder geschäftsführenden Personen erstellt werden, die es ihnen ermöglichen, Daten über eine beliebige Anzahl physischer Rechenzentren zu verteilen und dennoch gemeinsam zu verwalten. So können effektiv Regeln für die physische Speicherung von Kopien erstellt werden. Beispielsweise eine Regel für jeweils zwei Kopien in einem Rechenzentrum in Deutschland, eine Kopie in einem niederländischen Rechenzentrum, aber keine Kopie in den USA. So lassen sich Datensicherheit und Datenschutz über die Datensteuerung verbinden. Noch einen Schritt weiter geht das Daten-GPS, das den Speicherort von Daten bis auf das Laufwerk im Server genau ermitteln kann und damit volle Transparenz schafft.

RZ 1, Rack 3, Server 4, Laufwerk 4 – das Daten-GPS macht’s möglich
Selbst wenn man genaue rollenbasierte Richtlinien definiert hat - woher weiß man, ob eine einmal eingerichtete Richtlinie auch sauber ausgeführt wird? Hier kommt das Daten-GPS ins Spiel. Ähnlich wie ein GPS-Gerät lässt das Daten-GPS exakt wissen, wo jeder Teil von Daten gespeichert liegt: Ob vor Ort, in einer hybriden Cloud oder bei einem gehosteten Cloud-Dienst. So lässt sich nach dem Einrichten einer Speicherrichtlinie deren Funktionalität testen und validieren.

Ein Daten-GPS verschafft IT-Einrichtungen neben zusätzlicher Sicherheit auch zusätzliche Glaubwürdigkeit, da man damit Kunden die Standorte ihrer Daten weltweit exakt angeben kann. Ein Daten-GPS zeigt nicht nur an, wie viele Kopien einer Datei es gibt, sondern auch, wo sich diese Dateien befinden. Beispielsweise im deutschen Rechenzentrum 1, auf Rack 3, auf Server 4, auf Laufwerk 4. Es funktioniert ähnlich, als würde man für eine bestimmte Datei eine Nadel auf eine Weltkarte stecken.

Früher mag vielen Unternehmenskunden egal gewesen sein, wo ihre Daten gespeichert wurden - nur der Zugriff darauf war relevant. Doch je mehr Unternehmen heute hybride und öffentliche Cloud Computing-Services in ihren Betrieb integrieren, desto kritischer werden die Datenkontrolle und die Datensichtbarkeit.

Für einige Anwendungen und Dateien bestimmt der Grad der benötigten Sicherheit den Grad der notwendigen Granularität. Auch im seltenen Fall eines Einbruchs in ein Rechenzentrum, falls ein physischer Server sabotiert oder gestohlen wird, ist detailliertes Wissen über die dort gespeicherten Daten wichtig. Mit automatisierten Speicherrichtlinien und einem Daten-GPS können Unternehmen ab sofort sicherstellen, dass ihre Daten auch dort sind, wo sie hingehören. (Cloudian: ra)

eingetragen: 29.05.17
Home & Newsletterlauf: 08.06.17

Cloudian: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Grundlagen

  • Cloud-Big Data-Projekte: Exponentielles Wachstum

    Für IT-Verantwortliche wird es immer wichtiger, mit der Cloud den Einsatz innovativer Technologien zu unterstützen. Cloud Cpmputing-Services für Machine Learning, Künstliche Intelligenz, Blockchain oder Serverless Computing sind heute mit wenigen Mausklicks abrufbar. Damit beschleunigt sich die Umsetzung neuer Geschäftsmodelle ebenso wie die Produktentwicklung. Warum ein organisationsweites Datenmanagement für den Cloud-Erfolg wichtig ist, zeigt der folgende Beitrag. In der Studie "Multi-Cloud in deutschen Unternehmen" berichten die Analysten von IDC, dass 68 Prozent der Unternehmen bereits Cloud Computing-Services und -Technologien für mehrere Workloads verwenden.

  • Multiple Clouds nicht gleich Multi-Cloud

    Multi-Cloud ist derzeit einer der heißesten Trends für Unternehmen. Die Verwendung mehrerer Clouds gleichzeitig, kann viele Vorteile bieten. Richtig eingesetzt kann man mit der richtigen Kombination von Clouds unter anderem die Kosten für Infrastruktur senken, die Präsenz von Daten und Workloads in verschiedenen Regionen verbessern oder die Herstellerbindung an Cloud Computing-Anbieter vermeiden. Unternehmen, die den Ansatz Multi-Cloud hingegen falsch verstanden haben, kann dieses Missverständnis viel Geld kosten. Denn eine fehlgeleitete Multi-Cloud-Strategie hat das Potenzial, Anwendungen, Teams und Budgets unnötig aufzusplitten.

  • So gelingt der Umzug in die Cloud

    Geblendet von den zahlreichen Vorteilen, wollen viele Unternehmen zumindest Teile ihrer IT in die Cloud migrieren. Der Wunsch dies so schnell wie möglich zu tun ist verständlich, aber in den meisten Fällen völlig unrealistisch. Entscheidungsträger sollten neben den offensichtlichen Vorteilen auch die Zeit in Betracht ziehen, die nötig ist diese zu erreichen. Hierbei kann das Konzept Time To Value (TTV) helfen den richtigen Zeitpunkt für den Umzug zu ermitteln. Die Vorteile Cloud Computing-Technologien zu nutzen sind mittlerweile gut dokumentiert. Einer der wichtigsten ist die mit ihr verbundene Flexibilität, die es erlaubt nur für die Leistung zu bezahlen, die auch gebraucht wird. Die Entscheidung pro Cloud scheint somit auf der Hand zu liegen. Doch der Teufel steckt bekanntlich im Detail und trotz des Willens vieler Organisationen, mehr auf die Cloud zu setzen, ist ein Umzug über Nacht einfach nicht möglich sondern muss von langer Hand geplant sein.

  • Bedarf an schnellem Service-Management

    "Die Fabrik der Zukunft wird nur noch zwei Mitarbeiter haben, einen Mann und einen Hund. Der Mann ist da, um den Hund zu füttern und der Hund, um den Mann davon abzuhalten, Geräte zu berühren." Wie weit wir aktuell noch von dieser im Jahr 1990 geäußerten Vision von Warren Bennis entfernt sind, wird immer wieder versucht vorherzusagen. Schon den jetzigen technologischen Stand vor fünf Jahren präzise vorauszusehen, wäre aber nahezu unmöglich gewesen. In Bezug auf IT-Service Management (ITSM) zeichnet sich meiner Ansicht nach bereits ab, was kurz- und mittelfristig auf Unternehmen zukommen wird. Zum Beispiel werden neue Technologien wie Künstliche Intelligenz und Machine Learning noch stärker in den Mittelpunkt rücken, während eine ansprechende Benutzererfahrung und die Minimierung der Total Cost of Ownership weiterhin wichtig bleiben werden. Folgende fünf Themen sollten IT-Verantwortliche im Auge behalten und prüfen, ob ihre Service Management-Infrastruktur dafür gewappnet ist.

  • Freiheit für die Cloud!

    In der Ökonomie ist ein freier Markt ein idealisiertes System, in dem die Preise für Waren und Dienstleistungen durch Angebot und Nachfrage bestimmt werden. Die Kräfte von Angebot und Nachfrage in einem freien Markt sind per Definition frei von jeglichen Eingriffen einer Regierung, eines preisgebenden Monopols oder einer anderen Behörde. Doch wie jeder Wirtschaftsstudent weiß, führt eine freie Marktwirtschaft, wenn sie unreguliert ist, allzu oft zu einem Monopol oder zumindest einem Oligopol, das die Innovation einschränkt und die Preise erhöht, da der Kunde weniger Wahlmöglichkeiten hat. In der Praxis sind die Märkte für alle Arten von Produkten und Dienstleistungen in der Tat selten ideal.

  • Überlegt zum Sprung in die Wolke ansetzen

    Bis 2025 wird die Cloud-Nutzung so fest im Geschäftsalltag verankert sein, dass es Wichtigeres gibt, als über die Cloud zu reden. Diese Prognose teilt ein Fünftel der deutschen IT-Entscheider in einer aktuellen Umfrage, die der amerikanische Softwareanbieter Citrix durchgeführt hat. Noch besteht viel Redebedarf. Zum Beispiel, ob sich eine Private, Hybrid oder Multi-Cloud am besten eignet. Das hängt vom Branchenumfeld, den Geschäftsaktivitäten, Geschäftszielen, IT-Anforderungen und -Budget sowie dem IT-Know-how der Belegschaft ab. So kann es den weltweiten Vertrieb einer Firma verbessern, wenn allen Vertriebsmitarbeitern ein Reporting-Tool zur Verfügung steht. In dem Fall ist es sinnvoll, diesen Workload in der Cloud zu betreiben. Einrichten lässt sich zudem ein On-Premises-Arbeiten, in dem die Vertriebsprofis die eigentlichen Reports lokal erstellen und im jeweiligen Rechenzentrum am Standort ablegen.

  • Patienten engmaschiger überwachen

    Das Internet der Dinge (Internet of Things, IoT) entwickelt sich mehr und mehr zur nächsten industriellen Revolution. Zahlreiche Branchen "springen" auf "den Zug auf". Die Gesundheitsbranche bildet hier keine Ausnahme. Innovationen bei medizinischen Geräten, Medikamenten, Patientenüberwachung und vielem mehr sprießen wie die sprichwörtlichen Pilze aus dem Boden. Intelligente Technologien arbeiten effizient und genau, und das kann im wahrsten Sinne des Wortes lebensrettend sein.

  • Neue Datenverkehrsmuster im Entstehen

    Der rasante technologische Wandel und die damit verbundene Disruption von Geschäftsmodellen führen dazu, dass multinationale Konzerne in ihren wichtigsten Märkten zunehmend agiler auftreten müssen. Jedoch fällt es ihnen aufgrund des expansiven Wachstums ihrer IT-Ökosysteme schwer, wirklich agil zu operieren - insbesondere dann, wenn sie durch eine veraltete IT-Infrastruktur ausgebremst werden. Cloud-Deployments und die massive Zunahme von Anwendungen und Endgeräten erhöhen den Druck auf die Verantwortlichen, die IT-Landschaft zu modernisieren.

  • Kontrolle über SaaS-Anwendungen behalten

    Wer Software-Ausgaben unter Kontrolle bringen will, braucht ein intelligentes Software Management. Daran hat auch Software-as-a-Service (SaaS) nichts geändert. Ganz im Gegenteil: Schatten-IT und Shelfware zählen zu den größten Kostenfallen bei Cloud-basierten Anwendungen. Durchschnittlich kommen in Unternehmen 15x mehr SaaS-Anwendungen zum Einsatz als auf offizieller Seite bekannt ist. Der Grund für die Schatten-IT ist leicht nachzuvollziehen: Für Mitarbeiter ist es sehr einfach Anwendungen über die Cloud zu abonnieren. Kreditkarte und E-Mail-Adresse reichen Public Cloud-Anbietern wie Amazon Web Services (AWS) und Microsoft Azure aus, um in wenigen Schritten ein Konto anzulegen und je nach Bedarf SaaS-Anwendungen zu beziehen - in vielen Fällen ohne Absprache mitder IT oder dem Einkauf.

  • In die Cloud - aber sicher

    Dr. Chris Brennan, Regional Director DACH, Eastern Europe, Russia and Israel von Skybox Security erläutert, wie die Migration in die Cloud und dabei zu berücksichtigende Sicherheitsaspekte in Einklang gebracht werden können. Unternehmen setzen vermehrt auf Cloud Computing-Umgebungen. Einer der Vorteile dabei ist, dass die Cloud eine hohe Skalierbarkeit und Agilität aufweist. Wenn dabei aber die Sicherheitsrisiken vernachlässigt werden, die dieser Schritt mit sich bringt, kann daraus ein großer Nachteil erwachsen. Ein gängiger Fehler dabei ist, dass viele Entscheider denken, dass der Cloud Security Provider (CSP) mehr Verantwortung für die Sicherheit trägt, als er tatsächlich tut.