- Anzeige -


Sie sind hier: Startseite » Markt » Tipps und Hinweise

Daten sicher aus der Public Cloud zurückführen


Ausblick, was es mit dem Trend der "Cloud Data Repatriation" auf sich hat
Unternehmen aber auch Service Provider benötigen skalierbare Datenspeicherlösungen, die Geschäftsdaten schützen und diese jederzeit verfügbar

- Anzeigen -





Von Florian Malecki, StorageCraft

In vielen Unternehmen findet im Umgang mit der Cloud inzwischen ein Umdenken statt und vermehrt wollen Unternehmen zumindest Teile ihrer Kerndaten und zentralen Anwendungen aus der Public Cloud zurückholen (Cloud Data Repatriation). Laut der US-Analystenfirma IDC, haben 80 Prozent der Unternehmen ihre Workloads im vergangenen Jahr repatriiert. Es wird davon ausgegangen, dass in den nächsten zwei Jahren 50 Prozent der Anwendungen aus der Public Cloud an private oder lokale Hosting-Standorte zurückgeholt werden – teils aus Kostengründen oder wegen der Skalierbarkeit.

Zwar bieten Public Clouds ein hohes Maß an Flexibilität, sie sind aber auch teuer und die Übertragung unstrukturierter Daten, wie sie beispielsweise vom Internet of Things (IoT) erzeugt werden, ist zudem oft nicht schnell genug. Gerade Unternehmen, die glaubten, sie hätten ihre Daten im Griff, müssen feststellen, dass sie die Masse unstrukturierter Daten nur schwer einschätzen können. Lange dachte man, das Problem wäre gelöst, wenn man den Großteil der Daten in die Cloud verschiebt. Jetzt wird zunehmend deutlich, dass die Cloud nicht nur teuer sein kann, sondern dass es aufgrund potenzieller Latenzzeiten auch manchmal schwer ist, schnell genug an bestimmte Daten heranzukommen.

Das hat den Trend zur Cloud-Rückführung bzw. Cloud Data Repatriation zur Folge. Immer mehr Unternehmen gehen deshalb zu einer hybriden Infrastruktur über, bei der nur bestimmte Daten und Anwendungen in der Public Cloud gehalten werden, während andere in eine lokale Infrastruktur zurückgeholt werden. Für Unternehmen, die ihre Daten aus der Public Cloud rückführen, stellt sich dabei die Frage, wo und wie sie diese speichern.

Unternehmen aber auch Service Provider benötigen skalierbare Datenspeicherlösungen, die Geschäftsdaten schützen und diese jederzeit verfügbar halten – unabhängig davon, ob sie im Unternehmen, in Private Clouds oder extern bei einem Hoster gespeichert sind. Ein ideales Speichersystem sollte darüber hinaus Analysemöglichkeiten bieten, die Unternehmen bei der Einordnung von Informationen unterstützen, um leichter entscheiden zu können, welche Datensätze in der Public Cloud verbleiben, lokal gespeichert oder repatriiert werden müssen.

Die Datenflut erreicht inzwischen epische Ausmaße, so dass Unternehmen eine Infrastruktur benötigen, die einerseits das Datenwachstum bewältigt und andererseits alle unstrukturierten Daten sichern kann. Umso wichtiger ist die Wahl des richtigen Speichersystems, um sich für die neue Realität der Cloud-Rückführung zu wappnen und für Sicherheit zu sorgen.

Die gute Nachricht ist, dass die moderne Speichertechnologie diesen Herausforderungen gewachsen ist. Deshalb kann die richtige Speichertechnologie zu einer Geheimwaffe werden, die für bestmögliche Datenkontrolle sorgt und Risiken ein für alle Mal minimiert. (Storagecraft: ra)

eingetragen: 26.11.19
Newsletterlauf: 31.01.20

StorageCraft Technologies: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Tipps und Hinweise

  • Cloud-basierte Ausrichtung

    Die Rahmenbedingungen in der IT-Industrie ändern sich bekanntlich schnell. Unternehmen, Anbieter und Partner müssen sich ständig an neue Trends, Technologien oder gesetzliche Bestimmungen anpassen. Oft sind es auf den ersten Blick kleine Änderungen, die dann großen Einfluss auf die IT haben können. Im Zuge dieser kontinuierlichen Veränderung tauchen ständig neue Anbieter auf dem Markt auf, die mit neuen Technologien Veränderungen anstoßen. Ein Paradebeispiel für diese kontinuierliche Veränderung ist der Markt für Cybersicherheit. Der Markt wird zwar noch in weiten Teilen von Unternehmen dominiert, die in einigen Fällen Jahrzehnte vor dem großen Datenboom im Jahr 2005 gegründet wurden.

  • So werden Filesharing-Projekte zum Erfolg

    Zentrale Filesharing-Lösungen versprechen Unternehmen einen schnellen, einfachen und geräteunabhängigen Dateiaustausch. Die Mitarbeiter können stationär und mobil unkompliziert auf alle erforderlichen Dateien zugreifen, sie synchronisieren und teilen. Filesharing ist aber nicht gleich Filesharing. Um dabei Effizienz, Sicherheit und die Einhaltung rechtlicher Vorgaben zu gewährleisten, müssen Unternehmen einige zentrale Aspekte beachten. ownCloud erläutert die entscheidenden Erfolgsfaktoren. Unternehmenskritische Dateien nicht in öffentliche Clouds verlagern. In vielen Unternehmen kommen für das Filesharing US-amerikanische Public-Cloud-Lösungen wie Dropbox, Box, Google Drive oder Amazon Drive zum Einsatz. Dadurch geben sie die Souveränität über ihre Daten aus der Hand. Sie haben keine Kontrolle über den Speicherort und müssen Einbußen bei Sicherheit und Datenschutz hinnehmen. Da US-amerikanische Anbieter dem Cloud Act unterliegen, ist mit ihnen keine DSGVO-konforme Datenhaltung möglich. Deshalb sollten Unternehmen eine Lösung aufsetzen, bei der die Dateien auf ihren eigenen Servern oder in selbst gewählten Rechenzentren verbleiben können.

  • Eckpfeiler einer Cloud-nativen Entwicklung

    Cloud-native ist nicht Cloud und auch nicht Cloud-enabled. Die weitreichenden Vorteile, die die Cloud bietet, kann ein Unternehmen nur optimal ausschöpfen, wenn auch die Anwendungsentwicklung Cloud-native erfolgt. Matthias Kranz, Director Solution Architects Germany bei Red Hat, bringt Licht ins Dunkel. Das Substantiv Cloud bezieht sich nur auf den Ort für das Deployment von Hardware und Software, etwa für Server, Storage, Datenbanken und alle möglichen Formen von Applikationen und Services.

  • Sicherheit in Zeiten der Microservices

    Wenn es um die Bereitstellung Cloud-basierter Anwendungen über Microservices geht, stellen sich zwei primäre Fragen: "Wie schnell ist schnell genug?" und "Wie sicher ist sicher genug?". Im Wettbewerb um den Kunden haben Unternehmen kaum noch Zeit, auf traditionelle Sicherheitsüberprüfungen zu warten, bevor sie Anwendungen einführen oder verbessern. Die erste Priorität besteht darin, dass die Anwendungen die Kundenanforderungen erfüllen. Die Anwendungssicherheit spielt ebenfalls eine wichtige Rolle, aber sie darf der Agilität nicht im Wege stehen. Sicherheitsaspekte werden daher zunehmend in die DevOps-Teams verlagert, die sich als die Designer und Überwacher der agilen Netzwerkökosysteme verstehen und die automatisierten kontinuierlichen Bereitstellungsprozesse ermöglichen. Diese Teams haben jedoch Prioritäten, die im Widerspruch zu herkömmlichen, abwägenden Sicherheitspraktiken stehen. Ihre Aufgabe besteht darin, schnell Anwendungen bereitzustellen, die die Geschäftsanforderungen unterstützen. Zeit für umfassende Sicherheitsüberprüfungen ist dabei einfach nicht vorgesehen. Folglich können sich traditionelle IT- und Security-Teams von diesem Prozess ausgeladen fühlen.

  • Robocalls zerstören das Vertrauen

    Die Deutschen wünschen sich mehr werbefreie Angebote und Schutz ihrer persönlichen Daten. Darauf hat die Verlagslandschaft schon reagiert, laut Horizont bietet zum Beispiel der "Spiegel" seit Kurzem gegen einen kleinen Geldbetrag eine werbefreie Version seiner Online-Ausgabe. Auch Unternehmen müssen auf die veränderten Bedürfnisse ihrer Kundschaft reagieren und ihre Kommunikation entsprechend weiterentwickeln. Twilio, die führende Plattform für Cloud-Kommunikation und Customer Engagement, unterstützt täglich mehr als 179.000 Unternehmen bei der Kundenkommunikation. Die Customer Engagement-Spezialisten haben jetzt wertvolle Erkenntnisse zur Kundenbindung in einem Report gesammelt und die fünf wichtigsten Entwicklungen 2019 zusammengefasst. Unternehmen bietet es damit eine Orientierung, in welchen Bereichen sie sich in Sachen Kundenbindung 2020 weiterentwickeln sollten.

  • Vier Technologien für IoT-Daten-Management

    Laut einer Studie von Gartner planen 66 Prozent der befragten Unternehmen, 5G bis 2020 etabliert zu haben. Immerhin 59 Prozent wollen mit dem Einsatz des neuen Netzes auch Use Cases im Bereich Internet of Things (IoT) angehen. Nicht zu Unrecht. Denn der neue Kommunikationsstandard ebnet den Weg dafür, endlich vollumfänglich von den Daten zu profitieren, die neue Technologien generieren. Smartphones, Smart Cities, Smart Homes und Smart Cars gestalten unsere digitale Welt neu und schaffen eine massive Infrastruktur aus sensorischen Daten. Und diese Masse an Daten wird mit dem Einsatz neuer Technologien weiter steigen - auf 175 Zettabytes in fünf Jahren, wie es IDC voraussagt. Jedoch machen wir auch unentwegt Fortschritte, was die Nutzung dieser Daten angeht. So stehen uns, nicht zuletzt dank 5G, schon heute Mittel dazu zur Verfügung, die noch vor fünf Jahren unvorstellbar gewesen wären. Vier solcher Schlüsseltechnologien, die ein leistungsfähiges Management von IoT-Daten in skalierbarer Form ermöglichen, werden im Folgenden beleuchtet.

  • Cloud Analytics: Auf diese Dinge achten

    Sicherlich haben Sie sich als IT-Entscheider diese Fragen schon mal gestellt: Wie lässt sich das Potential der Cloud für Data Analytics am besten ausschöpfen? Wie kann man die Cloud optimal in das eigene Analytics-Ökosystem integrieren? Wie sieht überhaupt eine gute Cloud Analytics-Lösung aus? Und sicherlich haben Sie und Ihr Team festgestellt: Auf diese Fragen gibt es keine einfachen "One-Size-Fits-All"-Antworten. Dennoch können Sie einige wesentliche Schritte, Faktoren und Tipps beachten, damit Analytics mithilfe der Cloud in Ihrem Unternehmen zum Erfolg wird. Proof of Concept: Auf die Größe kommt es an. So wie Quantität eine eigene Qualität hat, so muss auch die Planung für die Cloud-Migration von lokalen kleinen, übersichtlichen bzw. Greenfield-Systemen eine andere sein als für große, historisch gewachsene, komplexere Systeme. Ein Proof of Concept (POC) für Analytics einer kleinen Umgebung lässt sich zwangsläufig nicht auf eine große, geschäftskritische Umgebung mit einer erheblichen Menge an Daten, Anwendungen und tausenden von Nutzern weltweit adaptieren und skalieren. Dies ist sicherlich eine Tatsache und Lektion, die vielen IT-Entscheidern aus eigener Erfahrung bekannt ist.

  • Datenintegration zwischen Cloud & On-Premise-Daten

    Business Intelligence hat sich von großen Software-Monolithen, welche in der Vergangenheit ausschließlich von der IT kontrolliert wurden, zu einem agileren Tool-Set gewandelt. Eine große Rolle spielt dabei auch Nutzerfreundlichkeit durch ansprechende Visualisierung. Nicht umsonst sind Angebote wie Tableau, Qlik und andere am Markt sehr erfolgreich. Sollen solche Werkzeuge nachhaltig im Unternehmen etabliert werden, müssen Verantwortliche einiges beachten. Otto Neuer, Regional VP Sales bei Denodo, zeigt drei häufige Fehler und wie sich diese vermeiden lassen.

  • Fünf wichtige Schritte auf dem Weg zu DevOps

    Um die Business Transformation eines Unternehmens erfolgreich umzusetzen, benötigt man bei der Implementierung eine agile IT, die auf Basis eines DevOps-Modells arbeitet. Zu diesem Ergebnis kommt eine aktuelle IDC-Studie, die vom IT-Dienstleister Consol unterstützt wurde. Auf dem Weg dahin sollten Unternehmen allerdings einige Schritte beachten. Die Nutzung von DevOps setzt sich durch - mittlerweile nutzen beinahe vier von fünf Unternehmen DevOps, viele weitere planen den Einsatz in naher Zukunft. Das ist eines der zentralen Ergebnisse der aktuellen IDC-Studie "DevOps in Deutschland 2020", die Consol zusammen mit anderen IT-Unternehmen unterstützt hat. Das DevOps-Modell kombiniert Prozesse, Methoden und Werkzeuge, mit denen Unternehmen schneller und einfacher Anwendungen und Services bereitstellen können. Wesentlich sind dabei unter anderem Cloud-Nativität, Agilität und Automatisierung. Die IDC-Prognosen belegen darüber hinaus, dass die Verwendung von Cloud-nativen Werkzeugen und Applikationen, Microservices und Containern zunehmen wird. So sollen bereits 2024 rund 80 Prozent aller neu entwickelten Applikationen über Container bereitgestellt werden. Zudem werden in absehbarer Zeit Machine Learning und Künstliche Intelligenz bei der Entwicklung und dem Deployment von Applikationen eingesetzt.

  • Fünf Tipps für erfolgreiche IT-Projekte

    Eine hohe Komplexität sowie der Einsatz neuer und noch weitgehend unbekannter Technologien sind nahezu allen IT-Projekten gemein. Nicht wenige scheitern auch daran. Um IT-Projekte erfolgreich umzusetzen, ist ein umfassendes und konsequentes Projektmanagement unabdingbar. Dabei müssen dem Beratungsunternehmen iTSM Group zufolge vor allem fünf Aspekte besondere Berücksichtigung finden. Die wesentliche Voraussetzung für erfolgreiche IT-Projekte ist laut iTSM Group ein klar definiertes und abgrenzbares Projektziel, das überdies auch realistisch sein muss. "Kosteneinsparung oder schnellere Bearbeitung von Anfragen sind keine solchen Ziele", so Tobias Beckmann, Head of Digital Service Advisory bei der iTSM Group. "Die gewünschten Verbesserungen sollten präzise beschrieben werden. Die bekannte SMART-Formel ist eine Möglichkeit Ziele zu beschreiben. Das Ziel sollte spezifisch, messbar, akzeptiert, relevant und terminiert sein, nur so ist der Projekterfolg zu erreichen."