- Anzeige -


Sie sind hier: Startseite » Markt » Tipps und Hinweise

Frei zwischen den Clouds bewegen


Warum sich erst bei einer Cloud-Exit-Strategie der Wert der Daten voll entfaltet
DSGVO-Anforderungen: Zugang und Datenschutz führen in die Hybrid Cloud

- Anzeigen -





Von Peter Wüst, Senior Director of Emerging Solutions & Innovation Group EMEA bei NetApp

Was haben 6Wunderkinder und Snapchat gemeinsam? Beide sind erfolgreiche Startups, die fest an einen Cloud Service Provider gebunden sind. 6Wunderkinder mit ihrer App Wunderlist setzte auf AWS. Microsoft kaufte später die Aufsteigerfirma. Die App wurde in der AWS Cloud entwickelt und ist stark mit den Services verbunden und ihre Daten lassen sich nicht einfach zu Microsoft Azure verschieben. Bei Snapchat kann sich Google zurücklehnen. Denn das seit 2017 börsennotierte Unternehmen zahlt satte 400 Millionen US-Dollar im Jahr dafür, dass es die Cloud Computing-Plattform von Google nutzt. Auch beim Instant-Messaging-Dienst vergaß man, einen möglichen Cloud-Exit am Anfang in die Strategie mit ein zu beziehen.

Unternehmen bleiben flexibel und bewahren sich ihre Unternehmensfreiheit, wenn sie in der Lage sind, Daten zwischen den Hyperscalern zu bewegen. Sie geraten nicht in die Falle eines Vendor-Lock-in. Erhöht ein Cloud Computing-Anbieter die Preise, können sie im Zweifel zum kostengünstigeren Dienst wechseln. Eine Strategie zum Cloud-Exit – dem Clexit – zahlt sich aus, um den Weg von der Private Cloud in die Public Cloud – oder umgekehrt – zu gehen. Nötig ist zudem die Fähigkeit, auch innerhalb unterschiedlicher Clouds verschiedener Anbieter Daten flexibel hin- und herzuschieben. Zu all dem ist ein einheitliches Datenformat der Schlüssel.

DSGVO-Anforderungen: Zugang und Datenschutz führen in die Hybrid Cloud
Eine Hybrid Cloud stellt für viele die einzig reale Option dar, skalierbare wie kostengünstige IT-Ressourcen aus der Cloud zu beziehen. Schließlich sitzen nicht alle Unternehmen an einem Cloud-Hotspot, weshalb viele mit Netzwerklatenzen und Signallaufzeiten zu kämpfen haben. Millisekunden an Verzögerungen reichen aus, um Anwendungen zu verlangsamen, was wiederum Nutzern mehr Geduld abverlangt, die nicht alle aufbringen.

Ein Unternehmen sollte aber nicht nur aus diesem Grund gut überlegen, welche Anwendungen und Daten es in die Cloud verschiebt. Insbesondere die Datenlocation gewinnt entscheidend an Bedeutung, um die EU-Datenschutz-Grundverordnung (DSGVO) bis Mai 2018 umzusetzen. Der regelkonforme Umgang mit personenbezogenen Daten von EU-Bürgern schließt ein, zu entscheiden, welche Daten das Land oder das Gebäude beziehungsweise überhaupt das eigene Netzwerk verlassen dürfen.

Wer beispielsweise eine gesetzeskonforme Auftragskette in einem Drittland etablieren will, hat Transparenz zu schaffen. Es muss klar sein, wo Daten über EU-Bürger aus Kunden- und Lieferantendatenbanken oder HR-Systemen gespeichert und verarbeitet werden. Gefahren für Datenschutzverstöße bergen zudem Informationen, die Nutzer über Cloud Computing-Dienste teilen. An der Stelle empfiehlt es sich, ein ausgereiftes Überwachungstool wie NetApp OnCommand Insight einzusetzen. Das deckt Vendor-übergreifend automatisiert Unregelmäßigkeiten auf und macht das Nutzen von IT-Ressourcen transparent. So ist das Tool in der Lage, Zugriffsrechte zu klären.

Die Lösung für die nötige Flexibilität und DSGVO-Konformität liegt für viele Unternehmen in einer Hybrid- und Multi-Cloud. In der Hybrid Cloud betreibt eine Anwenderfirma eine eigene Cloud Computing-Infrastruktur, die sie je nach Bedarf durch Rechenleistung, Speicherplatz oder andere Services von einem Public Cloud-Anbieter ergänzt. Eine Multi Cloud zeichnet sich dadurch aus, dass ein Unternehmen mehrere Cloud-Anbieter – wie etwa Amazon, Oracle, Microsoft, OpenStack und VMware – für verschiedene Anwendungen nutzt.

Einheitliches Verwalten von Plattformen
Erst mit einer vollständigen Datenportabilität zwischen den Clouds lassen sich Cloud wie Daten voll nutzen. Dem steht jedoch die Praxis entgegen, dass Cloud Service Provider eigene Plattformen, Protokolle und Technologien einsetzen. Nur durch die Clexit-Fähigkeit gelingt es, schnell die Daten an den richtigen Ort zur richtigen Zeit zu bringen. Einheitliches Managen, Übertragen und Formatieren von Daten reduziert hierbei den Aufwand drastisch. Standardisiertes Übertragen ist die Basis, um unkompliziert Daten zwischen Clouds der jeweiligen Applikationen zur Verfügung zu stellen.

Ein einheitliches Datenformat beschleunigt das Bereitstellen, denn das Anpassen der Anwendungen an die Umgebung entfällt. Mit der NetApp Data Fabric erhalten Anwenderfirmen genau die zentrale Datenmanagement-Plattform, die sie brauchen, um verschiedene Clouds – seien es interne im eigenen Rechenzentrum, bei einem Service Provider gemanaged oder bei einem Hyperscaler wie AWS, Azure, SoftLayer oder anderen – miteinander zu verbinden und echte hybride Clouds zu bauen.

Die Frage nach dem perfekten Cloud-Einstieg stellt sich heute nicht mehr. Wer an skalierbarer, flexibler und kostengünstiger Konsistenz interessiert ist, beschäftigt sich bereits beim Einstieg mit dem Clexit. Das Ausstiegszenario gehört zwingend in eine umfassende Cloud-Strategie, die man entwickeln muss, bevor die erste Anwendung in die Cloud verlagert wird. Solch ein Vorgehen verhindert, sich in die Abhängigkeit von einem Hyperscaler zu begeben.

Im klassichen Datacenter sind regelmäßige Disaster-Fall-Tests zwingend notwendig, um sicherzustellen, dass im Falle eines Falles die Verfügbarkeit der IT Dienste gewährleistet bleibt. In der Cloud Welt müsste ein Clexit regelmäßig getestet werden. (NetApp: ra)

eingetragen: 14.11.17
Home & Newsletterlauf: 04.12.17


NetApp: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Tipps und Hinweise

  • Sechs Gründe für Datenvirtualisierung

    Im Zeitalter von Big Data und Cloud Computing, mit explodierendem Datenvolumen und zunehmender Datenvielfalt, können es sich Unternehmen nicht mehr leisten, zahlreiche Kopien und Reproduktionen der Daten zu speichern, die sie für ihr Geschäft benötigen. Deshalb werden bis 2020 mehr als ein Drittel (50 Prozent) der Unternehmen laut Gartner eine Form der Datenvirtualisierung als effiziente und kostensparende Option für die Datenintegration implementieren. Wie profitieren Unternehmen genau davon? Denodo zeigt die sechs wichtigsten Gründe auf, die für den Einsatz von Datenvirtualisierung sprechen.

  • Herausforderung: Budget-Flexibilität

    Der Multi-Cloud-Ansatz setzt sich zunehmend durch. Der Weg in die Multi-Cloud muss jedoch begleitet werden von einem Umdenken bei der Planung von IT-Budgets. Andernfalls können die Vorteile der Multi-Cloud nicht optimal ausgeschöpft werden. Bis 2019 wird der Anteil der Unternehmen, die einen Multi-Cloud-Ansatz verfolgen, auf 70 Prozent steigen - prognostiziert die Gartner Studie "Market Trends: Multi-Cloud Usage Will Drive Cloud Management Platform Growth". Hauptgrund für diese Entwicklung ist die höhere Flexibilität, die die Multi-Cloud bietet. Sie eröffnet Unternehmen die Möglichkeit, sich für die jeweils optimale Lösung zu entscheiden.

  • Migration in die Cloud beschleunigen

    Das zunehmende Tempo der Digitalisierung führt zu einem enormen Fachkräftemangel, insbesondere im Bereich Cloud und Cyber-Sicherheit. Für Unternehmen, die Anwendungen, Daten, Geschäftsabläufe sowie eine Vielzahl von virtuellen Infrastrukturen in die Cloud verlagern müssen, bedeutet das nichts Gutes. Wie können Unternehmen, die bereits bei wichtigen Cyber-Projekten hinterherhinken, die Migration in die Cloud beschleunigen? Venu Lambu, Global Head of Markets for Infrastructure Services bei Cognizant, sieht folgende Lösungsansätze als Möglichkeit, um dieser Engpass zu bewältigen: Zum einen muss die Anzahl interner Sicherheitsexperten stark erhöht werden, zum anderen müssen Berater, Systemintegratoren und Dienstleister in den täglichen Cyber-Betrieb eingebunden werden. Ein Perspektivwechsel sowie die Geschäftsstrategie durch die Cloud-Linse zu betrachten, wobei das Cloud Computing-Modell die betrieblichen Sicherheitsanforderungen zu berücksichtigen hat, sind entscheidende Punkte.

  • Sicherheit innerhalb der Cloud

    Immer öfter gehen Unternehmen den Schritt in die Cloud. Wer aber ist eigentlich für die Sicherheit in der Public Cloud verantwortlich? Keine leichte Frage. Vor allem, weil Sicherheitsverletzungen weitreichende Folgen nach sich ziehen können. Aus Sicht von Rackspace sind dies die fünf häufigsten Bedenken von Unternehmen, wenn es um die Public-Cloud-Sicherheit geht: Schützen Amazon, Microsoft und Google meine Cloud nicht? Die Cloud-Sicherheit besteht auf der einen Seite aus der Sicherheit der jeweiligen Cloud und auf der anderen Seite aus der Sicherheit in der Cloud. Alle großen Cloud-Anbieter erfüllen strenge Sicherheitsstandards und stellen sicher, dass Verstöße - etwa unberechtigte Zugriffe auf die genutzte AWS-, Azure- oder Google-Cloud-Plattform - sehr unwahrscheinlich sind.

  • Fünf Maßnahmen gegen die mobile Schatten-IT

    Mobile Schatten-IT ist zu einer Herausforderung für die Unternehmens-IT geworden: Mitarbeiter nutzen nicht genehmigte Geräte und Apps und kümmern sich dabei wenig um rechtliche Regelungen, Sicherheitsvorschriften oder Compliance-Vorgaben. Virtual Solution zeigt, was Unternehmen gegen den Wildwuchs mobiler Schatten-IT tun können. Die Schatten-IT ist für Unternehmen schon immer ein Problem gewesen: Waren es früher vor allem persönliche Excel-Sheets oder Datenbanken, die eine weitgehend unkontrollierte und nicht autorisierte IT-Struktur bildeten, so geht es mittlerweile mehr und mehr um mobile Systeme und Anwendungen. Smartphones und Tablets werden von Mitarbeitern an den Vorschriften der Unternehmens-IT vorbei genutzt. Sie verwenden Apps wie WhatsApp und Evernote oder Fileshares wie Dropbox oder Google Drive auch für ihre beruflichen Aufgaben.

  • Wenn Kryptojacking auf die Cloud trifft

    Mit prominenten Opfern tauchte Kryptojacking in der ersten Jahreshälfte 2018 mehrmals in den Schlagzeilen auf. Bei dieser Angriffstechnik kapern Hacker fremde Geräte um Kryptowährungen zu schürfen. Kryptowährungen werden durch das Lösen komplexer mathematischer Probleme generiert. An sich ein legitimer Vorgang, allerdings erfordert dieser eine hohe Rechenleistung und ist damit überaus ressourcenintensiv. Für Kriminelle ist es daher lukrativer, das Schürfen widerrechtlich auf fremde Infrastrukturen auszulagern. Das Kapern von Geräten und Netzwerken und die Bündelung zu einem Botnetz maximiert ihre Schürfkapazitäten und beschert einen höheren Gewinn, da sie diese Ressourcen nicht selbst kostenpflichtig unterhalten müssen. Ebenfalls attraktiv sind die damit verbundenen geringeren Konsequenzen: Fälle von Kryptojacking, insbesondere in den USA, werden von den Behörden weniger aggressiv verfolgt als Angriffe mit Malware oder Ransomware, wo das Schadensausmaß deutlich höher ist.

  • Herausforderung: Das Weitverkehrsnetzwerk

    Seit rund 20 Jahren gibt es Unified Communications (UC). Doch die Nachfrage nach UC-Lösungen erreichte nie das prognostizierte Niveau, das hat sich in den vergangenen Jahren geändert. Der Grund für diesen Umschwung ist UC as a Service. Bei UCaaS nutzen Unternehmen Unified-Communications-Dienste, die über eine Cloud bereitgestellt werden. Zu den Vorteilen zählen kürzere Implementierungszeiten und geringere Investitionskosten. Unterschätzt wird jedoch ein weiterer Vorzug: UC as a Service stärkt die Innovationskraft von Unternehmen. Wenn die eigene IT-Abteilung neue UC-Funktionen bereitstellen muss, dauert das oft Monate. Mit UCaaS sind aber solche Erweiterungen dagegen sofort verfügbar. Ein Beispiel sind Funktionen, mit denen Arbeitsgruppen die Zusammenarbeit optimieren können, Stichwort "Collaboration".

  • Sichere SD-WAN-Bereitstellung

    Unternehmen, deren Standorte landes- oder weltweit verteilt sind, verbinden diese häufig seit Jahren, wenn nicht seit Jahrzehnten, per MPLS-Leitungen (Multiprotocol Label Switching). Doch vor allem durch den steigenden Einsatz von Cloud Computing-Technologien ist diese Architektur mittlerweile veraltet. User, Daten und Anwendungen sind heutzutage weit verstreut, Angestellte arbeiten von überall aus und nutzen eine Vielzahl an Geräten. Vor dieser Entwicklung war die Implementierung von Sicherheitskontrollen relativ einfach dahingehend, dass ein definierter Perimeter um alle zu schützenden Vermögenswerte eines Unternehmens existierte. So konnten IT-Teams eine Vielzahl von Sicherheitstechnologien zentral einsetzen. Remote-Standorte wurden in diesen Sicherheitsbereich einbezogen, indem der gesamte Verkehr über MPLS zu einer großen zentralen Firewall umgeleitet wurde, die für die Traffic-Regulierung und Durchsetzung der Sicherheitsrichtlinien sorgte.

  • Herausfinden, was migriert werden muss

    Mehr als 70 Prozent aller Unternehmen beschäftigen sich aktuell mit Microservices. Viele haben sie bereits im Einsatz, andere bereiten gerade die Migration vor - und das mit gutem Grund. Sie versprechen sich davon eine schnellere Weiterentwicklung ihrer Anwendungen, mehr Flexibilität, mehr Leistungsfähigkeit und eine bessere Skalierbarkeit. Wer den Umstieg jedoch unbedacht angeht, schafft mehr Probleme als er löst. Gregor Keller, Sales Engineering Manager bei AppDynamics, nennt als Application-Performance-Expertin die drei größten Herausforderungen, die ihnen tagtäglich begegnen.

  • Technische Umsetzung von IoT-Projekten

    Viele Unternehmen zögern noch bei der Umsetzung von Internet of Things (IoT)-Projekten. Sie verrennen sich in technischen Überlegungen, statt sich auf das zu fokussieren, worauf es eigentlich ankommt: Mit angemessenem Aufwand schnell einen wirtschaftlichen Nutzen zu erzielen. Mehr Mut ist gefragt. Die folgenden vier Tipps helfen dabei. Unternehmen beginnen ein IoT-Projekt häufig mit einem Proof of Concept, um die technische Machbarkeit zu prüfen. Was Sie dabei verkennen: Die Basistechnologie ist heute so weit fortgeschritten, dass sie kein limitierender Faktor mehr ist. Man braucht sich darüber gar nicht so sehr den Kopf zu zerbrechen.