- Anzeige -


Sie sind hier: Startseite » Fachartikel » Grundlagen

Multi Cloud Sourcing


Von Wolke zu Wolke: Umfassende Lösung zur Umsetzung einer idealen Sourcing-Strategie
Multi Cloud Sourcing erlaubt eine praktisch beliebige Kombination von Services verschiedener Public Cloud-Provider

Autor Lars Göbel
Autor Lars Göbel Um sich aus dem breiten Angebot an Cloud-Services die optimalen Lösungen herauszusuchen und diese mit der eigenen Infrastruktur zu verbinden, ist ein gewisser Aufwand nötig, Bild: Darz

Von Lars Göbel, Leiter Vertrieb und IT Services bei Darz

(10.02.16) - Die Vorteile von Cloud Computing sind inzwischen bekannt: hohe Flexibilität und Skalierbarkeit zu genau kalkulierbaren Kosten. Doch wer Dienste von mehreren Anbietern nutzt, steht schnell vor einem Problem. Er muss die nötigen Informationen jedes Mal neu übertragen, wodurch unterschiedliche Datenbestände und Mehraufwand für das Management entstehen können. Ein einfaches Springen von Wolke zu Wolke ermöglicht Multi Cloud Sourcing.

Für viele Unternehmen ist die Hybrid Cloud attraktiv. Sie kombiniert Skalierbarkeit mit Effizienz und verspricht zusätzlich Kostenersparnisse. Denn die Kunden müssen keine teuren Kapazitäten für Spitzenzeiten bereithalten, die im Rest des Jahres nicht genutzt werden. Zudem vermeiden sie Management- und Aktualisierungsaufwand. Betrachtet man die verfügbaren Angebote genauer, werden aber deren Grenzen deutlich sichtbar. Die Architekturen sind häufig nicht sehr flexibel und trennen die Speicherebenen innerhalb und außerhalb des Unternehmens zu strikt voneinander. Dadurch wird meist nur mit erheblichem Migrationsaufwand ein Datenaustausch zwischen den einzelnen Infrastrukturen möglich.

Dies führt im Bereich Public Cloud schnell zu einem Vendor Lock-In, also der Abhängigkeit von einem Hyperscaler. Das sind Public Cloud-Anbieter wie Amazon Web Services (AWS), Microsoft Azure oder IBM Softlayer. Sie nutzen eine verteilte Umgebung, womit sie sowohl die Datenmenge als auch den Bedarf für bestimmte Workload-Typen zu geringen Kosten exponentiell erhöhen können. Durch den Zugriff auf verschiedene Hyperscaler wären zwar Einsparungen möglich, doch diese werden in der Praxis häufig durch den Aufwand für die Datenmigration aufgehoben.
Einen Weg aus dieser Zwickmühle ermöglicht Multi Cloud Sourcing. Damit lassen sich verschiedene Hyperscaler miteinander kombinieren. So entsteht eine umfassende Lösung zur Umsetzung einer idealen Sourcing-Strategie, zum Beispiel aus Komponenten von Microsoft Azure in Verbindung mit Bestandteilen aus IBM Softlayer sowie aus der Private Cloud oder Colocation-Systemen. Dadurch können Unternehmen frei entscheiden, bei welchem Public Cloud-Provider sie welche Dienste einkaufen, zum Beispiel für die Umsetzung einer Disaster Recovery-Lösung oder zur Abfederung von Spitzenzeiten bei Online-Shops.

Beliebige Kombinationen
Multi Cloud Sourcing erlaubt also eine praktisch beliebige Kombination von Services verschiedener Public Cloud-Provider. So lässt sich auf einfache Weise eine Lösung realisieren, die den individuellen Bedürfnissen eines Unternehmens optimal entspricht. Der entscheidende Unterschied zur bisherigen Hybrid Cloud ist dabei, dass sich die Kunden nicht mehr auf einen Hyperscaler festlegen müssen. Stattdessen erhalten sie eine echte multiple Lösung mit höchstmöglicher Skalierbarkeit und Flexibilität.

Dieser Ansatz eignet sich insbesondere für Unternehmen mit großen Schwankungen bei den Auslastungen ihrer Systeme. Dazu gehören zum Beispiel Finanzinstitute, Einzelhändler oder Medienhäuser. Aber auch Firmen, die zahlreiche verschiedene Applikationen einsetzen, profitieren von Multi Cloud Sourcing. Die damit erreichbaren Vorteile bei Kosten und Skalierung erhöhen sich in der Regel mit der Größe des Unternehmens. Doch auch Mittelständler und Start-ups können deutliche Effekte erzielen. Denn die Kombination mehrerer Hyperscaler ermöglicht eine optimal angepasste IT-Lösung, ohne eine eigene IT-Infrastruktur aufzubauen oder aufrecht zu erhalten. Stattdessen bleibt mehr Zeit für die Konzentration auf das Kerngeschäft.


Vorbereitungen
Unternehmen müssen jedoch einige Vorbereitungen treffen, bevor sie von Multi Cloud Sourcing profitieren. Im ersten Schritt ist zu klären, ob das Unternehmen überhaupt konkrete Gründe besitzt, Private und Public Cloud Computing-Services verschiedener Anbieter miteinander zu kombinieren. Für welche Einsatzszenarien oder Geschäftsprozesse ist dies nötig? Dabei ist auch zu klären, welche Anforderungen für Performance, Skalierbarkeit, Verfügbarkeit, Compliance und Sicherheit sowie andere Parameter zu erfüllen sind und welche Abhängigkeiten und Zusammenhänge es innerhalb der bestehenden IT-Infrastruktur gibt.

Aus der Analyse und Konzeption der benötigten sowie gewünschten Prozesse ergibt sich eine genaue Zielkonfiguration. Diese ist mit Hilfe einer detaillierten Marktübersicht mit den verfügbaren Funktionen und konkreten Anforderungen der Cloud-Dienste verschiedener Hyperscaler und Public Cloud-Provider abzugleichen. Die Unterschiede zwischen ihnen sind dabei zum Teil erheblich. Dies gilt sowohl für die Breite ihres Angebots als auch ihre Interpretation der einzelnen Servicemodelle.

Unterschiedliche Angebote
Die wichtigsten Merkmale können in drei Kategorien eingeteilt werden: Produktbreite, Performance-Klassen und Workload-spezifische Zielgruppen. Bei der Produktbreite bieten beispielsweise Microsoft Azure und AWS die gesamte Palette von Infrastructure-as-a-Service (IaaS) über Platformas-as-a-Service (PaaS) bis zu Software-as-a-Service (SaaS). Dagegen konzentrieren sich VMware und IBM Softlayer auf IaaS und teils auf PaaS.

VMware stellt zahlreiche unterschiedliche Performance-Klassen für sämtliche Bedürfnisse von Unternehmen bereit. Demgegenüber konzentriert sich AWS auf flexible Infrastruktur-Dienste. Bei den unterstützten Workloads und Anwendungen gibt es ebenfalls erhebliche Unterschiede zwischen den Providern. Entsprechend müssen Unternehmen die verschiedenen Services genau analysieren, um den optimalen Nutzen aus Multi Cloud Sourcing zu gewinnen.

Herausforderung und Chance
Dies ist gleichzeitig Herausforderung und Chance. Denn aktuell gibt es keine Möglichkeit, eine Kombination dieser sehr unterschiedlichen Angebote auf einfache Weise zusammenzustellen, um die individuellen Anforderungen zu erfüllen. Somit können Unternehmen auch nicht sofort Multi Cloud Sourcing nutzen. Stattdessen müssen sie zuerst die bereitstehenden Angebote mit den zugehörigen Eigenschaften wie SLAs, IT-Sicherheit, Datenschutz, Preismodelle und mögliche Exit-Strategien verstehen. Dies bietet aber auch die Gelegenheit, noch einmal die eigenen Vorstellungen und Kapazitäten anhand der verfügbaren Cloud-Services zu überprüfen sowie eine wirklich optimale, flexible Konfiguration zu entwickeln.

Anschließend hat das Unternehmen festzulegen, welche Komponenten es mit eigenen Ressourcen umsetzen kann und welche es als Cloud-Dienstnutzen möchte. Da Multi Cloud Sourcing die Komplexität der Infrastruktur erhöht, ist dabei genau zu prüfen, ob die erzielbaren Vorteile den dazu nötigen Aufwand für die Implementierung rechtfertigen. Erst dann können sie entscheiden, ob sie überhaupt Multi Cloud Sourcing benötigen.

Die Umsetzung
Im nächsten Schritt folgt die technische Umsetzung. Dazu müssen Unternehmen zuerst die vollständige Kontrolle über die eigenen Daten erhalten. Denn nur eine einheitliche Datenbasis ermöglicht einen "Single Point of Truth" und vermeidet unterschiedliche Informationsbestände bei verschiedenen Providern. Dazu eignen sich zum Beispiel Business Intelligence-Lösungen mit unmittelbarem Zugang auf Originaldaten, etwa aus CRM- oder ERP-Systemen. Diese Daten lassen meist in der Anwendung prüfen und miteinander abgleichen.

Anschließend kann eine echte Hybrid Cloud-Struktur mit der Integration von Private Cloud, Public Cloud-Diensten und Colocation erstellt werden, dieeine maximale Mobilität der Daten gewährleistet. Dabei ist meist die eigene Infrastruktur so anzupassen, dass sich die gewünschten Public Cloud-Services möglichst reibungslos einbinden lassen. Der dazu nötige Aufwand kann sehr unterschiedlich ausfallen. Von der simplen Verbindung über bestehende Schnittstellen bis hin zum Aufbau einer neuen, gemeinsam genutzten Datenbasis an einem eigenen Standort ist praktisch alles möglich.

Bislang hätte die Datenhaltung bei verschiedenen Public Cloud-Providern das Gefahrenniveau vervielfacht. Doch heutzutage verschlechtert sich die Sicherheit im Vergleich zur Nutzung eines Cloud-Providers nicht, wenn eine gemeinsame Datenbasis bei einem deutschen Unternehmen genutzt wird. Dies ist insbesondere für Unternehmen interessant, die hohe Anforderungen an Datensicherheit besitzen. Zudem sollten Banken, Versicherungen oder Behörden ihre Daten unter Umgehung des Internets über gesicherte, vollständig redundante Leitungen an die Public Cloud-Anbieter übertragen. Dazu eignet sich eine ständig überwachte, dedizierte, verschlüsselte Glasfaserinfrastruktur.

Fazit
Um sich aus dem breiten Angebot an Cloud-Services die optimalen Lösungen herauszusuchen und diese mit der eigenen Infrastruktur zu verbinden, ist ein gewisser Aufwand nötig. Dies wird sich auch mit Multi Cloud Sourcing nicht ändern. Doch bislang lassen sich die Inhalte zwischen den Angeboten nicht ohne weiteres austauschen, so dass die gleichen Daten zu diversen Dienstleistern mehrmals zu übertragen sind. Dies erhöht den Management-Aufwand, die Komplexität der Nutzung und die Gefahr unterschiedlicher Daten als Basis. Mit Multi Cloud Sourcing lassen sich dagegen verschiedene Hyperscaler wie AWS, VMware vCloud Air, Google oder Microsoft im Sourcing-Prozess beliebig und reibungslos miteinander kombinieren. So entsteht eine ganzheitliche, flexible Lösung für die Umsetzung einer idealen Mischung der Cloud Computing-Angebote.

Der Autor: Lars Göbel, Leiter Vertrieb und IT Services bei Darz
Lars Göbel befasst sich seit mehr als einem Jahrzehnt mit IT-Services und der Cloud. Bei Darz ist er zuständig für den Aufbau des modularen Produktportfolios und dessen Vertrieb. Der Wirtschaftsinformatiker baute als IT-Projektmanager & Consultant die erste VMware basierte Public-Cloud-Infrastruktur Deutschlands auf und vermarktete diese. Mit dieser spezifischen Projekterfahrung im Gepäck wechselte er zu VMware, wo er zwei Jahre als Senior Consultant tätig war. 2014 übernahm er seine heutige Position bei Darz. In den Aufbau des neuen Unternehmens bringt er seine gesammelten Erfahrungen und Erkenntnisse aus 10 Jahren Umgang mit Cloud-Technologien ein – vor allem aber auch seine Vision eines IT-Full-Service Providers mit modularem Produkt Portfolio und den Möglichkeiten, die ein solches Konzept für den Markt bietet. Neben seinem Qualitäts- und Sicherheitsanspruch, Kunden ganzheitliche Lösungen aus einer Hand anbieten zu können, fasziniert ihn die Gestaltung einer wirklichen hybriden Cloud-Lösung durch die Verschmelzung von Colocation, Private Cloud und Public Cloud. Eine Lösung, die schon lange vom Markt gefordert wird.
(Darz: ra)

Darz: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Grundlagen

  • DevOps werden zunehmend datengetrieben

    DevOps haben sich in der Software-Entwicklung in den vergangenen Jahren immer weiter durchgesetzt. Die effizientere und effektivere Zusammenarbeit von Entwicklung und IT-Betrieb bringt allen Beteiligten zahlreiche Vorteile: So steigt nicht nur die Qualität der Software, sondern auch die Geschwindigkeit, mit der neue Lösungen entwickelt und ausgeliefert werden. In 2019 haben wir gesehen, dass Automatisierung, künstliche Intelligenz und AIOps immer häufiger eingesetzt und von der DevOps-Gemeinschaft erforscht werden. Container und Functions as a Service nahmen weiter zu, so dass Entwickler und Betriebsteams ihre Anwendungen und Infrastruktur besser kontrollieren konnten, ohne die Geschwindigkeit zu beeinträchtigen. Doch wohin geht die Reise jetzt?

  • Cloud Computing-Daten schützen

    Mit wachsenden digitalen Geschäftsanforderungen investieren Unternehmen massiv in die Erweiterung ihrer Netzwerkverbindungsfähigkeiten, um sicherzustellen, dass ihre Daten den richtigen Personen zur richtigen Zeit zur Verfügung stehen. Insbesondere für Cloud-basierte, hochgradig vernetzte und agile Geschäftsmodelle ist die Gewährleistung eines ordnungsgemäßen Zugriffs auf Daten und Systeme unerlässlich. Zusammen mit der Konnektivität in immer komplexeren Infrastrukturen wachsen auch die Anforderungen an Netzwerk- und Datensicherheit. Wenn nicht die richtigen Schutzvorkehrungen getroffen werden, können Bedrohungen, die von Datenlecks und Fehlkonfigurationen bis hin zu Risiken durch Insider reichen, in jedem komplexen Cloud- und Netzwerkökosystem ihr Schadenspotenzial entfalten.

  • Durchsetzung von Cloud-Sicherheitsrichtlinien

    Cloud Computing-Services bieten Unternehmen heute eine kostengünstige und flexible Alternative zu teurer, lokal implementierter Hardware. Vorteile wie hohe Skalierbarkeit, Leistung und Effizienz sowie reduzierte Kosten liegen auf der Hand, sodass immer mehr Unternehmen ihre Anwendungen und Daten in die Cloud migrieren. Sensible Daten wie personenbezogene Informationen, Geschäftsgeheimnisse oder geistiges Eigentum sind jedoch neuen Risiken ausgesetzt. Denn in der Cloud gespeicherte Daten liegen außerhalb der Reichweite vieler lokaler Sicherheitsvorkehrungen. Unternehmen müssen deshalb zusätzliche Maßnahmen ergreifen, um ihre Daten in der Cloud, über den teils rudimentären Schutz der Anbieter hinaus, gegen Cyberangriffe und Datenlecks abzusichern. Allgemein sind Public-Cloud-Provider für die physische Sicherheit, globale und regionale Konnektivität sowie die Stromversorgung und Kühlung ihrer eigenen Rechenzentren zuständig. Dies ermöglicht Unternehmen eine flexible Skalierbarkeit und entlastet sie davon, eine eigene Infrastruktur wie ein Rechenzentrum oder Server-Hardware bereitzustellen. Zugleich liegt es in der Verantwortung der Unternehmen, all ihre in die Cloud migrierten Daten und Anwendung selbst auf gewünschte Weise zu schützen.

  • Redundante SaaS-Anwendungen ermittetteln

    Die Software-as-a-Service (SaaS)-Landschaft wächst und wächst. Wer bis jetzt noch nicht auf Wolken geht, plant in absehbarer Zeit himmelwärts zu wandern. Für den IT-Betrieb bringt die Cloud bei allen Vorteilen jedoch auch Herausforderungen mit. Das gilt insbesondere bei der Verwaltung von SaaS-Ausgaben. Auf den ersten Blick steht die Inventarisierung und Konsolidierung von SaaS mit Recht ganz unten auf der Prioritätenliste von IT-Abteilung. Bei den unzähligen täglichen Aufgaben und den Herausforderungen im Zuge der digitalen Transformation, wird das "Ausmisten" im IT-Haushalt gerne auf die lange Bank geschoben. Das kann sich auf lange Sicht jedoch zu einem kostspieligen Fehler auswachsen, denn die Ausgaben für die Cloud (22 Prozent) liegen mittlerweile nur noch knapp hinter den Ausgaben für On-Premise (23 Prozent). Dazu gehört auch Software-as-a-Service (SaaS), Infrastructure-as-a-Service (IaaS) und Platform-as-a-Service (PaaS). Über 80 Prozent der befragten Unternehmen planen die Ausgaben für SaaS und IaaS/PaaS im nächsten Jahr weiter zu erhöhen.

  • CLOUD Act auch für europäische Cloud-Provider?

    Nahezu zeitgleich mit der DSGVO ist der US-amerikanische CLOUD Act in Kraft getreten. In der Praxis geraten damit zwei Rechtsauffassungen unvereinbar miteinander in Konflikt. Nicht nur für Cloud-Anbieter, sondern auch für Unternehmen, die Cloud Computing-Anwendungen nutzen, könnte dies rechtliche Schwierigkeiten mit sich bringen. Anliegen des "Clarifying Lawful Overseas Use of Data" (CLOUD) Act ist es, die US-amerikanische Strafverfolgung zu erleichtern, indem der Zugriff auf im Ausland gespeicherte Kommunikationsdaten von Verdächtigen vereinfacht wird. Was bislang im Rahmen von Rechtshilfeabkommen zwischen den Regierungsbehörden verschiedener Länder im Laufe mehrerer Monate abgewickelt wurde, soll nun schneller möglich sein.

  • Cloud-Repatriation eine Realität

    Unternehmen nutzen vermehrt die Hybrid Cloud um Daten und Anwendungen in alle Umgebungen verschieben zu können. Dies macht das Zurückholen von Daten und Anwendungen ins eigene Rechenzentrum offiziell zu einem Trend. Noch vor wenigen Jahren glaubten wir, dass die Public Cloud die Zukunft der IT ist und früher oder später, physische Rechenzentren ersetzen würde. Tatsächlich ist der Trend Daten und Workloads in Public Clouds zu migrieren seit langem ungebrochen stark und es ist kein Ende dieser Entwicklung auszumachen. Doch trotz dieses generell anhaltenden Trends in Richtung Public Cloud ist Cloud-Repatriation, also die entgegengesetzte Entscheidung, Daten und Workloads zurück nach Hause ins eigene Rechenzentrum zu holen, in letzter Zeit zur Realität geworden. Was treibt diese Entwicklung an?

  • So hilft die KI bei der Datenanalyse

    Die Elektromobilität wird dazu führen, dass Fahrzeuge und Infrastrukturen riesige Datenströme generieren. In dieser Daten-Goldgrube verstecken sich viele Hinweise darauf, wie Unternehmen ihre Angebote und Produkte verbessern, aber auch die Kundenzufriedenheit steigern können. Wer den Datenschatz heben möchte, benötigt eine übergreifende Datenplattform und KI-Lösungen mit Maschine Learning-Komponenten. In den Medien generiert das Thema Elektromobilität derzeit interessante Schlagzeilen. Daimler kündigte an, ab 2021 mit der Produktion von autonom fahrenden Taxis zu starten. Auch Volkswagen steht unter Strom, denn die Wolfsburger wollen in den kommenden zehn Jahren 70 neue vollelektrische Elektrofahrzeuge entwickeln. Dazu meldet nun auch Lidl, dass der Lebensmitteldiscounter auf seinen Parkplätzen künftig Ladestationen für Elektrofahrzeuge installieren wird, wie es schon andere Handelsketten, beispielsweise Aldi, Rewe und Ikea, vormachen. Und im nächsten James Bond-Film wird der Superagent vermutlich mit einem Elektrofahrzeug von Aston Martin auf Gangsterjagd gehen.

  • Funktionierende DevOps-Kultur zu etablieren

    DevOps mit grundlegender IT-Modernisierung verbinden: Weitreichende Veränderungen wie die digitale Transformation oder neue Regularien wie die DSGVO wurden von vielen Unternehmen zum Anlass genommen, die eigene IT-Architektur von Grund auf zu überdenken. Die Ziele dabei waren und sind im Prinzip immer eine flexiblere IT, die schnell auf sich ändernde Umstände reagieren kann - eine der Kernkompetenzen von DevOps. Es ist also überaus sinnvoll, DevOps als eine der zentralen Säulen der neuen IT zu etablieren und sich dadurch kürzere Softwareentwicklungs- und Bereitstellungszyklen zu sichern.

  • Cloud-Big Data-Projekte: Exponentielles Wachstum

    Für IT-Verantwortliche wird es immer wichtiger, mit der Cloud den Einsatz innovativer Technologien zu unterstützen. Cloud Cpmputing-Services für Machine Learning, Künstliche Intelligenz, Blockchain oder Serverless Computing sind heute mit wenigen Mausklicks abrufbar. Damit beschleunigt sich die Umsetzung neuer Geschäftsmodelle ebenso wie die Produktentwicklung. Warum ein organisationsweites Datenmanagement für den Cloud-Erfolg wichtig ist, zeigt der folgende Beitrag. In der Studie "Multi-Cloud in deutschen Unternehmen" berichten die Analysten von IDC, dass 68 Prozent der Unternehmen bereits Cloud Computing-Services und -Technologien für mehrere Workloads verwenden.

  • Multiple Clouds nicht gleich Multi-Cloud

    Multi-Cloud ist derzeit einer der heißesten Trends für Unternehmen. Die Verwendung mehrerer Clouds gleichzeitig, kann viele Vorteile bieten. Richtig eingesetzt kann man mit der richtigen Kombination von Clouds unter anderem die Kosten für Infrastruktur senken, die Präsenz von Daten und Workloads in verschiedenen Regionen verbessern oder die Herstellerbindung an Cloud Computing-Anbieter vermeiden. Unternehmen, die den Ansatz Multi-Cloud hingegen falsch verstanden haben, kann dieses Missverständnis viel Geld kosten. Denn eine fehlgeleitete Multi-Cloud-Strategie hat das Potenzial, Anwendungen, Teams und Budgets unnötig aufzusplitten.