- Anzeige -


Sie sind hier: Startseite » Markt » Tipps und Hinweise

Angst vor einem "Lock-in"


Container und Cloud: Wie sich "Lock-in-Effekte" vermeiden lassen
Container sollen "Lock-ins" vermeiden – aber können sie das?

- Anzeigen -





Von Patrick Callaghan ist Solutions Architect bei DataStax

Die Wahl der richtigen Plattform für Unternehmensapplikationen mag auf den ersten Blick nebensächlich erscheinen, dabei hat sie immensen Einfluss auf alle folgenden Entscheidungen im Hinblick auf die Entwicklungsumgebung. Denn fällt die Wahl auf den falschen Cloud Computing-Anbieter, das falsche Betriebssystem oder die falsche Programmiersprache kann das im Nachhinein bei Mitarbeitern zu Unzufriedenheit und Zähneknirschen führen und durch erhöhten Personalaufwand richtig teuer werden.

Um das zu vermeiden, geht der Trend in Entwicklungsteams immer mehr zu (Software-)Containern und Microservices. Indem sie Fremdmaterial entfernen und die Größe der Images auf das erforderliche Maß reduzieren, erleichtern es Container, Software zielgerichtet einzusetzen. Und diese Konzentration auf das Wesentliche steigert die Produktivität von Entwicklern enorm. Eine Umfrage von 451 Research hat das jüngst noch einmal eindrucksvoll belegt: Rund 57 Prozent der befragten Unternehmen nannten die Produktivität der Entwickler als einen entscheidenden Grund für ihren Wechsel zu Containern.

Container sind ideal für den Einsatz von Microservices. Diese zerlegen Anwendungen in kleinere Komponenten, die alle ihre eigene Rolle innerhalb der Applikation einnehmen. Die Aufteilung in kleinere Bausteine macht die Anwendungen deutlich skalierbarer – nach oben oder nach unten. Somit ist die Kombination aus Containern und Microservices vor allem unerlässlich, wenn Unternehmen extrem schnell auf Nachfragespitzen reagieren wollen – um so die Erwartungen der Kunden an Services in Echtzeit zu erfüllen.

Cloud-Strategie mit Containern
Neben diesem Trend im Development verändert sich auch die Rolle der Infrastruktur. Denn um mit dem steigenden Nachfrageniveau auch IT-seitig mitzuhalten, setzen immer mehr Unternehmen auf Hybrid- oder Multi-Cloud-Strategien. Das bestätigen auch Studien: Gartner schätzte, dass bis 2019 rund 70 Prozent aller Unternehmen auf Multi-Cloud-Strategien umsteigen – im Vergleich dazu lag dieser Anteil im Jahr 2016 bei lediglich 10 Prozent. Das Marktforschungsinstitut Forrester Consulting stellte für das vergangene Jahr einen ähnlichen Trend fest, nämlich, dass 2018 bereits rund 60 Prozent der Unternehmen die Public Cloud für Produktionsanwendungen nutzten – wobei als Hauptgründe der Studie zufolge die positiven Auswirkungen auf die Geschäftsleistung und die betriebliche Effizienz genannt wurden. Den schnellen Wandel treiben nicht zuletzt die Entwickler voran, wünschen sie sich doch mehr Flexibilität bei der Ausführung und Bereitstellung von Anwendungen.

Ein weiterer Grund für den Wechsel auf Hybrid- oder Multi-Cloud-Umgebungen ist die Angst vor einem "Lock-in". Denn auch wenn die Services aus der Public Cloud eine enorme Rechen- oder Speicherverfügbarkeit aufweisen, ist es riskant, alles auf eine Karte zu setzen. Nutzt man beispielsweise einen speziellen Service eines Anbieters umfänglich, muss man sich der negativen Folgen im Klaren sein, die eine Änderung oder gar der Wegfall dieses Angebots mit sich bringen. Ein schneller Umzug des gesamten Datenbestands ist so kaum möglich. Die Folge: Der Kunde ist eingeschlossen.

Container sollen diesen "Lock-in-Effekt" vermeiden: Reduziert auf die wesentlichen Elemente und unabhängig von der zugrunde liegenden Hardware und Plattform kann ein Container-Image prinzipiell auf jedem Cloud-Service ausgeführt werden. Dies war auch einer der Gründe für das Wachstum von Kubernetes, der Management- und Orchestrierungsplattform für Container auf Open-Source-Basis. Da Kubernetes die Bedienung und Verwaltung nach und nach vereinfacht hat, lassen sich Container heute effizient und skalierbar betreiben. Noch wichtiger ist, dass mehrere Public Clouds Kubernetes unterstützen und auch Managed Kubernetes Services anbieten. Das erleichtert den Umzug, wenn ein Plattformwechsel ansteht.

Der "Lock-in" droht weiterhin
Allein mit Containern entkommt der Nutzer dem "Lock-in" allerdings nicht. Denn Container sind in der Regel "stateless", sie werden nicht zur Speicherung oder Analyse von Daten verwendet. Sind Anwendungen in Betrieb, generieren diese im Laufe der Zeit aber Daten, die gespeichert und verwaltet werden müssen.

Um mit den Anwendungen autonom zu bleiben, müssen Container und Daten gemeinsam betrachtet werden. Denn sind beispielsweise die Container portabel, die Daten aber nicht, läuft die Anwendung nur bei einem Anbieter. Um diese Abhängigkeiten zu vermeiden, ist es daher wichtig, sich genau anzusehen, welche Anforderungen an Datenmanagement, -speicherung und -analyse gestellt werden. Werden die Daten aus der Anwendung analysiert und wenn ja, in welchem zeitlichen Abstand zur Generierung der Daten? Geht es darum, Trends über einen Zeitraum zu betrachten oder muss man zeitnah analytische Entscheidungen treffen? Für die meisten Anwendungen gilt Zweiteres. Gerade für E-Commerce- und Handelsunternehmen müssen Schritte wie Personalisierung oder Produktempfehlungen so zeitnah wie möglich nach einer Kundenaktion erfolgen, um eine Erfolgschance zu haben.

Die Datenanalyse wiederum kann auf verschiedenen Arten der Datenspeicherung basieren. Relationale, NoSQL- und Graph-Datenbanken setzen alle auf unterschiedliche Methoden, um die wichtigen Informationen aus den Datenmassen herauszufiltern, die von Anwendungen generiert werden. Bei all diesen verfügbaren Möglichkeiten lohnt es sich, vorab zu prüfen, ob und wie die unterschiedlichen Datenbanken und -modelle neben containerbasierten Anwendungen integriert werden oder als eigenständige Container fungieren können.

Natürlich bieten Public-Cloud-Dienste spezifische Funktionen für die Datenspeicherung oder -analyse. Werden diese genutzt, begibt man sich für diese Zeit in Abhängigkeit, unabhängig davon, ob Container im Einsatz sind oder nicht. Dieser "Lock-in-Effekt" ließe sich mit einem Data Layer umgehen, der über mehrere Standorte und Cloud-Anbieter hinweg funktioniert – so wie es Container tun. Ein solcher, von der Cloud unabhängiger Ansatz ermöglicht es Unternehmen, bei Bedarf zwischen den eigenen Rechenzentren und einem Public-Cloud-Anbieter zu wechseln oder verschiedene Public-Cloud-Services gleichzeitig zu nutzen.

Unabhängig mit Containern und der richtigen Datenstrategie
Container bieten eine gute Möglichkeit, skalierbare Anwendungen bereitzustellen, die schneller und effizienter auf die Benutzeranforderungen reagieren können als herkömmliche Infrastrukturen. Sie allein verhindern allerdings noch keinen "Lock-in". Dafür ist es vielmehr erforderlich, auch die Anforderungen der Anwendung an Datenmanagement, -analyse und Storage-Umgebung zu prüfen.

Denn wirklich autonom ist ein Unternehmen nur mit einer möglichst umfassenden und durchdachten Datenstrategie. Durch vorausschauende Planung können Entwickler beeinflussen, wie gut ihr Unternehmen neue Cloud-Strategien umsetzt, um Datenautonomie zu gewährleisten und "Lock-ins" zu vermeiden. Ein positiver Nebeneffekt: Die Bedürfnisse der sogenannten "Right Now Economy" erfüllen sie so gleich mit. (DataStax: ra)

eingetragen: 15.03.19
Newsletterlauf: 25.03.19

DataStax: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Tipps und Hinweise

  • UCaaS-Lösungen bieten alle SaaS-Vorteile

    In vielen großen Unternehmen in Deutschland sollen derzeit die herkömmlichen On-Premise-Kommunikationslösungen ersetzt werden. Gesetzt ist meist - aufgrund der vielen Vorteile - der Schritt hin zu Unified Communications, bezogen als Software-as-a-Service (SaaS). Doch es gibt große Unterschiede zwischen verschiedenen UC-Lösungen, auch wenn sie oberflächlich betrachtet alle als SaaS-Angebote daherkommen. Dabei geht es nicht nur um den Preis, das Look and Feel oder einzelne Features. Die Unterschiede betreffen vielmehr alle Aspekte der Cloud-Strategie eines Großunternehmens. Der Unified-Communication-as-a-Service (UCaaS)-Anbieter Fuze kennt sich gut mit dieser Thematik aus und erläutert im folgenden Text die Unterschiede, damit Unternehmen eine fundierte Entscheidung über ihren künftigen UC-Partner treffen können.

  • Themen bei Microsoft-Kunden

    Laut IT-Dienstleisters Syntax stehen für Unternehmen, die Microsoft-Lösungen einsetzen, aktuell vor allem zwei große Aspekte im Mittelpunkt. Zum einen wird die Umsetzung von Modern-Workplace-Konzepten vorangetrieben, die dem Nutzer eine zentrale Schnittstelle für Kommunikation und Kollaboration mit einer einheitlichen Benutzeroberfläche bereitstellen und so interne und externe Prozesse effizienter gestalten. Der zweite große Trend ist die Migration oder Neuimplementierung kritischer Anwendungen und Prozesse auf Microsoft Azure als zentraler Public-Cloud-Plattform und die Nutzung von Plattformdiensten, die unter anderem auf künstlicher Intelligenz basieren und so neue Umsatzmodelle ermöglichen. Bei der Umsetzung dieser Ziele setzt Syntax auf ausgezeichnete Expertise, gerade wurde Constantin Klein, Team Lead Microsoft Consulting bei Syntax, zum zehnten Mal in Folge von Microsoft als "Most Valuable Professional" (MVP) ausgezeichnet.

  • Wechsel in die Cloud nicht von heute auf morgen

    IT-Verantwortliche müssen sich heutzutage mit den verschiedensten Herausforderungen auseinandersetzen, die eine Migration in die Cloud mit sich bringen. Obwohl sich die Cloud-Nutzung in den letzten Jahren stark verbreitet hat, haben einige Unternehmen trotzdem das Gefühl, noch nicht das volle Potenzial der Cloud ausgeschöpft zu haben. Die Gründe hierfür lassen sich allerdings leicht identifizieren und die Cloud Computing-Nutzung kann mithilfe ein paar grundlegender Maßnahmen entsprechend optimiert werden.

  • Nicht alle Cloud-Services sind gleich aufgebaut

    Governance und Agilität? Wie geht das denn zusammen? Schließlich bedeutet Agilität die Fähigkeit, schnell und flexibel zu handeln. Governance hingegen zielt darauf ab, Prozesse zu prüfen und zu kontrollieren - was die Dinge meist verlangsamt. Das muss aber nicht sein: Rackspace beispielsweise arbeitet mit Governance-Modellen, die explizit für den agilen Betrieb der (Public-)Cloud entwickelt wurden - und so beiden Ansprüchen gerecht werden können. Die Public Cloud erweist sich als extrem leistungsfähig. Aber: Mit der Kraft der Cloud gehen auch Herausforderungen einher. Bei AWS beispielsweise stehen derzeit 160 Dienste zur Verfügung und es werden jedes Jahr Hunderte (wenn nicht Tausende) neuer Funktionen veröffentlicht. Wie können Unternehmen hier sicherstellen, dass alle Compliance- und regulatorischen Verpflichtungen (z.B. DSGVO) auch eingehalten werden?

  • Auslagern statt selber machen

    Immer größere Datenmengen, vermehrter Einsatz digitaler Prozesse sowie Anforderungen an Compliance, Verfügbarkeit, Skalierbarkeit und Sicherheit stellen Unternehmen beim Management ihrer IT-Umgebung vor zum Teil große Herausforderungen. Denn eine funktionierende IT-Infrastruktur ist zwar notwendig für reibungslose Abläufe im Unternehmensalltag, doch geht der interne Aufbau von Hardware und Software mit hohen Kosten einher und benötigt ein hohes Maß an Fachwissen. Auch der ständige Einsatz von Fachpersonal verursacht hohe Ausgaben. Längst hat sich Outsourcing an entsprechende Dienstleister hier bewährt. "Nehmen Unternehmen externe Leistungen in Anspruch, profitieren sie von umfassendem Service und Know-how, sparen Kosten und minimieren Risiken", weiß Torben Belz, Geschäftsführer der Plutex GmbH aus Bremen, und ergänzt: "Doch viele Unternehmen scheuen diesen Schritt noch immer, weil sie Angst haben, dass das Outsourcing nicht reibungslos verlaufen und in der Folge zu vielen weiteren, möglicherweise langfristigen Problemen führen könnte."

  • Zukunftsinvestition: DataOps-Plattform

    Langsam, aber sicher ist DataOps kein Fremdwort mehr. Immer mehr Tools und Lösungen werben mit dem Begriff für sich. Wie sollen Unternehmen da noch den Überblick behalten? Hier sind drei Fragen, die sich Verantwortliche stellen müssen, wenn sie die richtige DataOps-Technologie für ihre Datenteams einsetzen möchten. DevOps ist heute unerlässlich für alle Unternehmen, die flexibel sein und möglichst schnell qualitativ hochwertige Produkte und Dienstleistungen anbieten wollen. Wer auf DevOps verzichtet, kann sich kaum über einen längeren Zeitraum gegenüber der Konkurrenz behaupten. Denn der Ansatz spielt eine entscheidende Rolle bei der Automatisierung der IT-Infrastruktur und des Softwareentwicklungszyklus. Dennoch hat DevOps bisher ein entscheidendes Element gefehlt, das für viele Innovationen zentral ist: die Datenbereitstellung. Genau hier setzt DataOps an.

  • Sämtliche Datenelemente dokumentieren

    Die aktuelle biMa-Studie der Sopra Steria Consulting liefert alarmierende Ergebnisse: Nahezu die Hälfte aller Unternehmen (49 Prozent) gibt an, dass ihre Daten für Analysen unvollständig, veraltet oder widersprüchlich sind. Neben der mangelhaften Datenqualität ist laut der Studie auch die fehlende Integration von Daten aus unterschiedlichsten Datenquellen eine Hürde. Unternehmen drohen aufgrund der Widrigkeiten im globalen Wettbewerb den Anschluss zu verlieren. Ohne Datenvirtualisierung ist es kaum möglich, fatale Entwicklungen dieser Art abzuwenden. Die voranschreitende Digitalisierung hat zu einem enormen Wachstum der weltweit verfügbaren Daten geführt. Während datengetriebene Innovationen in zahlreichen Industrieländern rasant voranschreiten, kämpfen Unternehmen im deutschsprachigen Raum nach wie vor mit unzureichenden technischen und organisatorischen Voraussetzungen. Traditionelle Ansätze wie ETL (Extract-Transform-Load), bei denen Daten für Analysen zunächst gespeichert und transformiert werden müssen, reichen nicht mehr aus, um Schritt zu halten.

  • Zukunftsinvestition: DataOps-Plattform

    Langsam, aber sicher ist DataOps kein Fremdwort mehr. Immer mehr Tools und Lösungen werben mit dem Begriff für sich. Wie sollen Unternehmen da noch den Überblick behalten? Hier sind drei Fragen, die sich Verantwortliche stellen müssen, wenn sie die richtige DataOps-Technologie für ihre Datenteams einsetzen möchten. DevOps ist heute unerlässlich für alle Unternehmen, die flexibel sein und möglichst schnell qualitativ hochwertige Produkte und Dienstleistungen anbieten wollen. Wer auf DevOps verzichtet, kann sich kaum über einen längeren Zeitraum gegenüber der Konkurrenz behaupten. Denn der Ansatz spielt eine entscheidende Rolle bei der Automatisierung der IT-Infrastruktur und des Softwareentwicklungszyklus. Dennoch hat DevOps bisher ein entscheidendes Element gefehlt, das für viele Innovationen zentral ist: die Datenbereitstellung. Genau hier setzt DataOps an.

  • Die Gefahr von Datenlecks steigt

    Daten befeuern Innovationen in Unternehmen: Informationen werden intelligent ausgewertet und in neues Wissen verwandelt, daraus entstehen Produkte, Lösungen und Dienste. Das funktioniert aber nur, wenn die migrierten Daten in hoher Qualität vorliegen und Betriebe sie schnell und bequem nutzen können. Weitere Voraussetzung: die Nutzung von Cloud Computing-Diensten, denn nur sie ermöglichen die digitale Transformation. Nur mit ihrer Hilfe können Daten schnell verarbeitet und bereitgestellt werden. Ohne Cloud-Nutzung wird kaum ein Unternehmen fit für die digitale Zukunft sein. Das hat zusätzliche Vorteile: Prozesse werden effizienter und agiler, die Kosten sinken. Wenn Unternehmen darauf verzichten, riskieren sie, ihr Geschäft auszubremsen und Marktanteile zu verlieren. Für viele deutsche Unternehmen ist das inzwischen selbstverständlich: 73 Prozent nutzen bereits Cloud Computing, so der "Cloud-Monitor 2019" von KPMG und Bitkom.

  • Bandbreiten- oder Netzwerkprobleme

    Multi-Cloud-Infrastrukturen haben einen großen Vorteil: Sie erlauben es dem Nutzer, Public-Cloud- und Private-Cloud-Services so miteinander zu verbinden, wie es gewünscht oder nötig ist. Damit bleibt ein Unternehmen flexibel und unabhängig. Die Verantwortlichen profitieren davon allerdings nur, wenn sie sich der Stolpersteine bewusst sind, die eine Multi Cloud mit sich bringt und diese zu umgehen wissen. Eine erste große Herausforderung, die sich in einem anlaufenden Multi-Cloud-Projekt oftmals stellt und unnötig Kosten provoziert, ist der Datentransfer. Denn bei der Migration - ob von einer On-Premises-Infrastruktur in die Cloud oder von einem Public-Cloud-Anbieter zu einem anderen - stoßen IT-Verantwortliche oft auf unvermutete Bandbreiten- oder Netzwerkprobleme.