- Anzeige -


Sie sind hier: Startseite » Markt » Tipps und Hinweise

Angst vor einem "Lock-in"


Container und Cloud: Wie sich "Lock-in-Effekte" vermeiden lassen
Container sollen "Lock-ins" vermeiden – aber können sie das?

- Anzeigen -





Von Patrick Callaghan ist Solutions Architect bei DataStax

Die Wahl der richtigen Plattform für Unternehmensapplikationen mag auf den ersten Blick nebensächlich erscheinen, dabei hat sie immensen Einfluss auf alle folgenden Entscheidungen im Hinblick auf die Entwicklungsumgebung. Denn fällt die Wahl auf den falschen Cloud Computing-Anbieter, das falsche Betriebssystem oder die falsche Programmiersprache kann das im Nachhinein bei Mitarbeitern zu Unzufriedenheit und Zähneknirschen führen und durch erhöhten Personalaufwand richtig teuer werden.

Um das zu vermeiden, geht der Trend in Entwicklungsteams immer mehr zu (Software-)Containern und Microservices. Indem sie Fremdmaterial entfernen und die Größe der Images auf das erforderliche Maß reduzieren, erleichtern es Container, Software zielgerichtet einzusetzen. Und diese Konzentration auf das Wesentliche steigert die Produktivität von Entwicklern enorm. Eine Umfrage von 451 Research hat das jüngst noch einmal eindrucksvoll belegt: Rund 57 Prozent der befragten Unternehmen nannten die Produktivität der Entwickler als einen entscheidenden Grund für ihren Wechsel zu Containern.

Container sind ideal für den Einsatz von Microservices. Diese zerlegen Anwendungen in kleinere Komponenten, die alle ihre eigene Rolle innerhalb der Applikation einnehmen. Die Aufteilung in kleinere Bausteine macht die Anwendungen deutlich skalierbarer – nach oben oder nach unten. Somit ist die Kombination aus Containern und Microservices vor allem unerlässlich, wenn Unternehmen extrem schnell auf Nachfragespitzen reagieren wollen – um so die Erwartungen der Kunden an Services in Echtzeit zu erfüllen.

Cloud-Strategie mit Containern
Neben diesem Trend im Development verändert sich auch die Rolle der Infrastruktur. Denn um mit dem steigenden Nachfrageniveau auch IT-seitig mitzuhalten, setzen immer mehr Unternehmen auf Hybrid- oder Multi-Cloud-Strategien. Das bestätigen auch Studien: Gartner schätzte, dass bis 2019 rund 70 Prozent aller Unternehmen auf Multi-Cloud-Strategien umsteigen – im Vergleich dazu lag dieser Anteil im Jahr 2016 bei lediglich 10 Prozent. Das Marktforschungsinstitut Forrester Consulting stellte für das vergangene Jahr einen ähnlichen Trend fest, nämlich, dass 2018 bereits rund 60 Prozent der Unternehmen die Public Cloud für Produktionsanwendungen nutzten – wobei als Hauptgründe der Studie zufolge die positiven Auswirkungen auf die Geschäftsleistung und die betriebliche Effizienz genannt wurden. Den schnellen Wandel treiben nicht zuletzt die Entwickler voran, wünschen sie sich doch mehr Flexibilität bei der Ausführung und Bereitstellung von Anwendungen.

Ein weiterer Grund für den Wechsel auf Hybrid- oder Multi-Cloud-Umgebungen ist die Angst vor einem "Lock-in". Denn auch wenn die Services aus der Public Cloud eine enorme Rechen- oder Speicherverfügbarkeit aufweisen, ist es riskant, alles auf eine Karte zu setzen. Nutzt man beispielsweise einen speziellen Service eines Anbieters umfänglich, muss man sich der negativen Folgen im Klaren sein, die eine Änderung oder gar der Wegfall dieses Angebots mit sich bringen. Ein schneller Umzug des gesamten Datenbestands ist so kaum möglich. Die Folge: Der Kunde ist eingeschlossen.

Container sollen diesen "Lock-in-Effekt" vermeiden: Reduziert auf die wesentlichen Elemente und unabhängig von der zugrunde liegenden Hardware und Plattform kann ein Container-Image prinzipiell auf jedem Cloud-Service ausgeführt werden. Dies war auch einer der Gründe für das Wachstum von Kubernetes, der Management- und Orchestrierungsplattform für Container auf Open-Source-Basis. Da Kubernetes die Bedienung und Verwaltung nach und nach vereinfacht hat, lassen sich Container heute effizient und skalierbar betreiben. Noch wichtiger ist, dass mehrere Public Clouds Kubernetes unterstützen und auch Managed Kubernetes Services anbieten. Das erleichtert den Umzug, wenn ein Plattformwechsel ansteht.

Der "Lock-in" droht weiterhin
Allein mit Containern entkommt der Nutzer dem "Lock-in" allerdings nicht. Denn Container sind in der Regel "stateless", sie werden nicht zur Speicherung oder Analyse von Daten verwendet. Sind Anwendungen in Betrieb, generieren diese im Laufe der Zeit aber Daten, die gespeichert und verwaltet werden müssen.

Um mit den Anwendungen autonom zu bleiben, müssen Container und Daten gemeinsam betrachtet werden. Denn sind beispielsweise die Container portabel, die Daten aber nicht, läuft die Anwendung nur bei einem Anbieter. Um diese Abhängigkeiten zu vermeiden, ist es daher wichtig, sich genau anzusehen, welche Anforderungen an Datenmanagement, -speicherung und -analyse gestellt werden. Werden die Daten aus der Anwendung analysiert und wenn ja, in welchem zeitlichen Abstand zur Generierung der Daten? Geht es darum, Trends über einen Zeitraum zu betrachten oder muss man zeitnah analytische Entscheidungen treffen? Für die meisten Anwendungen gilt Zweiteres. Gerade für E-Commerce- und Handelsunternehmen müssen Schritte wie Personalisierung oder Produktempfehlungen so zeitnah wie möglich nach einer Kundenaktion erfolgen, um eine Erfolgschance zu haben.

Die Datenanalyse wiederum kann auf verschiedenen Arten der Datenspeicherung basieren. Relationale, NoSQL- und Graph-Datenbanken setzen alle auf unterschiedliche Methoden, um die wichtigen Informationen aus den Datenmassen herauszufiltern, die von Anwendungen generiert werden. Bei all diesen verfügbaren Möglichkeiten lohnt es sich, vorab zu prüfen, ob und wie die unterschiedlichen Datenbanken und -modelle neben containerbasierten Anwendungen integriert werden oder als eigenständige Container fungieren können.

Natürlich bieten Public-Cloud-Dienste spezifische Funktionen für die Datenspeicherung oder -analyse. Werden diese genutzt, begibt man sich für diese Zeit in Abhängigkeit, unabhängig davon, ob Container im Einsatz sind oder nicht. Dieser "Lock-in-Effekt" ließe sich mit einem Data Layer umgehen, der über mehrere Standorte und Cloud-Anbieter hinweg funktioniert – so wie es Container tun. Ein solcher, von der Cloud unabhängiger Ansatz ermöglicht es Unternehmen, bei Bedarf zwischen den eigenen Rechenzentren und einem Public-Cloud-Anbieter zu wechseln oder verschiedene Public-Cloud-Services gleichzeitig zu nutzen.

Unabhängig mit Containern und der richtigen Datenstrategie
Container bieten eine gute Möglichkeit, skalierbare Anwendungen bereitzustellen, die schneller und effizienter auf die Benutzeranforderungen reagieren können als herkömmliche Infrastrukturen. Sie allein verhindern allerdings noch keinen "Lock-in". Dafür ist es vielmehr erforderlich, auch die Anforderungen der Anwendung an Datenmanagement, -analyse und Storage-Umgebung zu prüfen.

Denn wirklich autonom ist ein Unternehmen nur mit einer möglichst umfassenden und durchdachten Datenstrategie. Durch vorausschauende Planung können Entwickler beeinflussen, wie gut ihr Unternehmen neue Cloud-Strategien umsetzt, um Datenautonomie zu gewährleisten und "Lock-ins" zu vermeiden. Ein positiver Nebeneffekt: Die Bedürfnisse der sogenannten "Right Now Economy" erfüllen sie so gleich mit. (DataStax: ra)

eingetragen: 15.03.19
Newsletterlauf: 25.03.19

DataStax: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Tipps und Hinweise

  • AIOps-Ansatz liefert klare Vorteile

    Über Fehler in ihrem IT-Betrieb erfahren Unternehmen heute meist dadurch, dass sich Kunden über Probleme beschweren. Eine Umfrage von AppDynamics hat ergeben, dass 58 Prozent der IT-Teams durch Anrufe oder Kunden-E-Mails über Fehlfunktionen informiert werden. Führungskräfte oder andere Mitarbeiter außerhalb der IT entdecken 55 Prozent der bekannten Probleme. 38 Prozent werden durch User Posts in sozialen Netzwerken aufgedeckt. Natürlich wäre es für alle Beteiligten besser, wenn Unternehmen Fehler finden, bevor sich Kunden beschweren, oder sogar strukturelle Probleme so früh erkennen, dass Fehler gar nicht erst auftreten. Die enorme Komplexität heutiger Systeme und Infrastrukturen erlaubt das, zumindest auf konventionellen Wegen, nicht mehr. In einem vergleichsweise einfachen technischen System, wie einer Dampfmaschine, kann ein guter Maschinist durch regelmäßige Wartung für einen reibungslosen Betrieb sorgen. Er weiß, wo er seine Maschine schmieren muss, welche Belastungen er ihr zumuten kann und wann es Zeit wird, Verschleißteile auszutauschen. In modernen digitalen Systemen können Menschen dieses Verständnis nicht mehr erreichen.

  • Angst vor einem "Lock-in"

    Die Wahl der richtigen Plattform für Unternehmensapplikationen mag auf den ersten Blick nebensächlich erscheinen, dabei hat sie immensen Einfluss auf alle folgenden Entscheidungen im Hinblick auf die Entwicklungsumgebung. Denn fällt die Wahl auf den falschen Cloud Computing-Anbieter, das falsche Betriebssystem oder die falsche Programmiersprache kann das im Nachhinein bei Mitarbeitern zu Unzufriedenheit und Zähneknirschen führen und durch erhöhten Personalaufwand richtig teuer werden. Um das zu vermeiden, geht der Trend in Entwicklungsteams immer mehr zu (Software-)Containern und Microservices. Indem sie Fremdmaterial entfernen und die Größe der Images auf das erforderliche Maß reduzieren, erleichtern es Container, Software zielgerichtet einzusetzen. Und diese Konzentration auf das Wesentliche steigert die Produktivität von Entwicklern enorm. Eine Umfrage von 451 Research hat das jüngst noch einmal eindrucksvoll belegt: Rund 57 Prozent der befragten Unternehmen nannten die Produktivität der Entwickler als einen entscheidenden Grund für ihren Wechsel zu Containern.

  • Wie Hosting scheitern kann

    Wer ein Unternehmen betreibt, kommt um eine Präsenz im Web nicht herum. Egal ob Gastronomie, Industrie, Handwerk, Fashion, Kosmetik, Medien, Versicherungen oder Anwälte, selbst kleinste Privatunternehmer nutzen eine Internetseite, um ihre Dienste oder Produkte anzubieten. Dabei ist es wichtig, dass die Seite online immer verfügbar ist, sehr schnell lädt und es nicht zu Ausfallzeiten kommt. Je mehr Inhalt eine Website bietet und je höher die Besucherzahlen sind, umso größer ist die Gefahr, dass es zu Ausfällen oder langen Ladezeiten kommt. Dies betrifft jedoch nicht nur kleine Unternehmen, sondern auch Mittelständler und Enterprise. "Ein optimaler Webauftritt kann nur mithilfe von Hosting in professionellen Rechenzentren ausfallsicher und hochperformant abgebildet werden", weiß Torben Belz, Geschäftsführer der Plutex GmbH, und fügt hinzu: "Wer sich im Dschungel der Hosting-Optionen nicht auskennt, kann hier schnell Fehler machen."

  • Georedundanz gebender Rechenzentren

    Kurz vor Weihnachten hat das BSI (Bundesamt für Sicherheit in der Informationstechnik) seine Empfehlung für die Entfernung georedundanter Rechenzentren von fünf auf 200 Kilometer angehoben. Die Gründe für diese Empfehlung sind im neuen Leitfaden des BSI "Kriterien fu¨r die Standortwahl höchstverfügbarer und georedundanter Rechenzentren" genau dokumentiert. Was die Entfernung von einander Georedundanz gebender Rechenzentren betrifft, empfahl das BSI bisher einen Mindestabstand von fünf Kilometern. Mit der neuen, im Dezember 2018 veröffentlichten Empfehlung, hebt das BSI diese Distanz drastisch an. "Da es aber, insbesondere durch den Blick in die Vergangenheit, nicht möglich ist, zukünftige potentiell schädliche Situationen und Ereignisse ausreichend sicher vorherzusagen, sollten einander Georedundanz gebende Rechenzentren einen Mindestabstand von circa 200 Kilometer zueinander haben", führt das BSI in seinen Standort-Kriterien unter Punkt 3.3 aus - 40-mal so viel wie bisher. "Ist im Einzelfall ein deutlich geringerer Abstand unabweisbar", so das BSI weiter, " ist diese Notwendigkeit schriftlich ausführlich darzulegen und einer Risikoanalyse zu unterziehen". Doch auch dann, sollten georedundante Rechenzentren keinesfalls unter 100 Kilometer auseinanderliegen.

  • Cloud-Migration schnell und sicher umsetzen

    Entscheiden sich Unternehmen, ihre Applikationen in die Cloud zu migrieren, können sie nur profitieren. Denn die Cloud macht viele Digitalinnovationen überhaupt erst möglich. Allerdings kann beim Weg in die Cloud auch einiges schief gehen: Mangelndes Know-how, unrealistische Zeitvorgaben oder die Wahl der falschen Plattform sind gängige Stolpersteine. Richtig geplant wird die Migration in die Cloud jedoch zum Erfolgsprojekt. Rackspace hat drei Punkte zusammengestellt, auf die es bei der Planung ankommt.

  • Geschäftsprozesse in die Cloud verlagern

    Die Verlagerung von Geschäftsprozessen und Applikationen in die Cloud erfordert eine genaue Planung, damit die Datensicherheit zu jeder Zeit und in jedem Detail gewährleistet ist. Die Diskussion um den Einsatz von Cloud-Technologien ist mittlerweile nicht mehr von Sicherheitsbedenken geprägt. Heute wollen Unternehmen in erster Linie die damit verbundenen Chancen nutzen, um die Digitale Transformation voranzutreiben. Wenn Unternehmen komplette Geschäftsprozesse in die Cloud verlagern, lassen sich die erwarteten betriebswirtschaftlichen Ziele nur dann erreichen, wenn die Migration von Anfang an durch eine umfassende IT-Security-Strategie abgesichert ist - bei der die Sicherheit der Daten eine entscheidende Rolle spielt. NTT Security konkretisiert die wichtigsten Aktivitäten in fünf Schritten.

  • Daten nur verschlüsselt in der Cloud speichern

    Das Nutzen von Cloud Computing-Services gehört für die Mehrheit der Unternehmen längst zum festen Bestandteil der IT-Strategie. Die Möglichkeit des Datenzugriffs jederzeit und überall bringt zahlreiche Vorteile mit sich, allen voran verbesserte Flexibilität und erhöhte Produktivität. Die gestiegene Popularität dieser Dienste ist jedoch von böswilligen Akteuren nicht unbemerkt geblieben, was neue Arten von Cyberangriffen hervorgebracht hat. Eine Taktik, die in den vergangenen Jahren zunehmend zum Einsatz kam, ist der sogenannte "Man-in-the-Cloud" (MitC)-Angriff.

  • Daten in der Cloud und Cloud-Workloads

    As-a-Service-Lösungen verbreiten sich immer weiter. Dabei haben wir es längst nicht mehr mit einer einzigen Cloud zu tun. 82 Prozent der Unternehmen nutzen mehr als zehn verschiedene Public-Cloud-Dienste, so eine aktuelle Studie von McAfee. Dazu kommen noch Private Clouds und On-Premise-Systeme. Traditionelle Sicherheitssysteme stoßen im Angesicht dieser neuen komplexen Architekturen schnell an ihre Grenzen und Unternehmen drohen den Überblick zu verlieren. Rolf Haas, Enterprise Technology Specialist von McAfee, hat fünf Tipps um das zu verhindern:

  • Data Warehouse als erstes in die Cloud

    Die Migration des Data Warehouse in die Cloud ist für Unternehmen, die Teile ihrer Infrastruktur in die Cloud verlegen, ein wichtiger und über kurz oder lang auch notwendiger Schritt. Als eines der wichtigsten Puzzleteile der Infrastruktur, ist er leider auch meist sehr komplex und mit hohen Kosten verbunden. Anstatt die Migration dieses wichtigen Bestandteils der Dateninfrastruktur unnötig zu verzögern, können Unternehmen auf Automation setzen, um den Prozess zu vereinfachen. Ein wichtiges langfristiges Ziel vieler Unternehmen, im Prozess der Digitalen Transformation, ist die Nutzung von Cloud-Technologien. Schaut man sich die Zahlen der Cloud-Adaption jedoch genauer an, so sind offenkundig noch viele Unternehmen weit davon entfernt Teile ihrer Infrastruktur in die Cloud zu migrieren. Anstatt das langfristige Ziel Cloud, entschlossen anzupacken, prokrastinieren diese Unternehmen und setzen stattdessen oft auf Zwischenlösungen oder Abkürzungen. Und anstatt die wichtigen Bestandteile der Infrastruktur zuerst zu migrieren, wählen sie zuerst eher einfach zu migrierende Teile aus.

  • Datenstrategie braucht mehr als Tools

    Die Menschheit produziert 2,5 Trillionen Bytes pro Tag. In den letzten zwei Jahren wurden mehr Daten gesammelt, als in der gesamten Menschheitsgeschichte zusammen. Für jeden Menschen entstehen pro Sekunde 1,7 Megabyte neue Rohinformationen. Kurzum: Die Datenflut ist unaufhaltsam. Wobei diese Datenflut nicht automatisch bedeutet, dass daraus auch Wissen entsteht. Daten und Informationen an sich haben zunächst keinen Wert. Sie sind wie Rohdiamanten, die erst durch ihre Verarbeitung Brillanz gewinnen. Auch für Unternehmen entfalten Kundendaten erst ihren Wert, wenn sie ausgewertet einen Erkenntnisgewinn liefern, der zu neuen Handlungsoptionen führt. Das bedeutet, dass Unternehmen eine Datenstrategie brauchen, die ihre Geschäftsprozesse fundiert und leitet.