Sie sind hier: Startseite » Markt » Tipps und Hinweise

Eckpfeiler einer Cloud-nativen Entwicklung


Cloud und Cloud-native: Der Unterschied ist gravierend
Vom Begriff Cloud-native zu unterscheiden ist der Terminus Cloud-enabled



Cloud-native ist nicht Cloud und auch nicht Cloud-enabled. Die weitreichenden Vorteile, die die Cloud bietet, kann ein Unternehmen nur optimal ausschöpfen, wenn auch die Anwendungsentwicklung Cloud-native erfolgt. Matthias Kranz, Director Solution Architects Germany bei Red Hat, bringt Licht ins Dunkel. Das Substantiv Cloud bezieht sich nur auf den Ort für das Deployment von Hardware und Software, etwa für Server, Storage, Datenbanken und alle möglichen Formen von Applikationen und Services.

Cloud-native
Das Adjektiv Cloud-native hingegen beschreibt einen Ansatz für die Konzeption und den Betrieb von Applikationen, der die Vorteile des Cloud Computing-Modells nutzt, etwa im Hinblick auf Agilität und Automation. Trotz des Namens bezieht sich Cloud-native nicht auf den Ort des Applikations-Deployments, sondern auf die Art und Weise, wie Applikationen konzipiert, bereitgestellt und verwaltet werden. Cloud-native bedeutet also nicht, dass der Betrieb von Applikationen unbedingt in der Cloud erfolgen muss, auch ein On-Premise-Einsatz ist möglich. Ziel des Cloud-nativen Konzepts ist die Steigerung von Geschwindigkeit, Flexibilität und Qualität bei der Applikationsentwicklung unter gleichzeitiger Reduzierung der Risiken.

Cloud-enabled
Vom Begriff Cloud-native zu unterscheiden ist zudem der Terminus Cloud-enabled. Er bedeutet lediglich, dass traditionell entwickelte Applikationen für den Betrieb in der Cloud angepasst werden. Eine Cloud-enabled-Anwendung ist eine Anwendung, die in die Cloud verlagert wurde, aber ursprünglich für den Einsatz in einem herkömmlichen Rechenzentrum entwickelt ist. Dabei handelt es sich typischerweise um Legacy- und Enterprise-Software. Für die Verlagerung ist es erforderlich, einige Charakteristiken der Applikation zu ändern oder für die Cloud zu adaptieren. Eine gängige Methode für die Cloud-Migration ist dabei das "Lift and Shift"-Verfahren. Eine Cloud-native Anwendung ist im Unterschied dazu eine Anwendung, die bereits in ihrem Design mit den Cloud-Prinzipien der Mandantenfähigkeit, der elastischen Skalierung und der einfachen Integration und Verwaltung konzipiert ist.

Doch was zeichnet das Cloud-native Konzept nun konkret aus? Die Cloud-nativen Entwicklungen charakterisieren im Wesentlichen vier Punkte: Service-basierte Architektur, API-basierte Kommunikation, Container-basierte Infrastruktur und DevOps-Prozesse.

Service-basierte Architekturen wie Microservices ermöglichen den Aufbau modularer, lose gekoppelter Dienste. Andere modulare Architekturansätze – zum Beispiel Miniservices – bieten Unternehmen eine entscheidende Unterstützung bei der Beschleunigung der Anwendungserstellung, ohne dass dabei die Komplexität steigt.

Die Services werden über leichtgewichtige, Technologie-agnostische APIs bereitgestellt, die die Komplexität und den Aufwand beim Deployment sowie bei der Skalierung und Wartung reduzieren. Das API-basierte Design ermöglicht nur die Kommunikation per Service-Interface-Aufrufen über das Netzwerk, sodass die Risiken von direkten Verknüpfungen, Shared-Memory-Modellen oder direkten Lesezugriffen auf den Datenspeicher eines anderen Teams vermieden werden.

Cloud-native Anwendungen basieren auf Containern, die einen Betrieb in verschiedenen Technologieumgebungen ermöglichen und damit echte Anwendungsportabilität unterstützen, etwa im Hinblick auf Public, Private und Hybrid Cloud. Die Containertechnologie nutzt die Virtualisierungsfunktionen des Betriebssystems, um die verfügbaren Rechenressourcen auf mehrere Anwendungen aufzuteilen und um gleichzeitig zu gewährleisten, dass die Anwendungen sicher und voneinander isoliert sind. Cloud-native Anwendungen skalieren horizontal, dadurch können weitere Anwendungsinstanzen einfach hinzugefügt werden – oft durch Automatisierung innerhalb der Containerinfrastruktur. Durch den geringen Overhead und die hohe Dichte können zahlreiche Container innerhalb derselben virtuellen Maschine oder desselben physischen Servers gehostet werden. Dadurch sind sie auch ideal geeignet für die Bereitstellung von Cloud-nativen Anwendungen.

Die Anwendungsentwicklung für Cloud-native Ansätze folgt agilen Methoden mit Continuous-Delivery- und DevOps-Prinzipien, die auf die kollaborative Erstellung und Bereitstellung von Anwendungen durch Teams aus Entwicklung, Qualitätssicherung, IT-Sicherheit und IT-Betrieb fokussieren.

Oft ist noch eine Verwirrung um die Begriffe Cloud und Cloud-native anzutreffen. Prinzipiell können Unternehmen, die auf Cloud Computing setzen, die Skalierbarkeit und Verfügbarkeit ihrer Applikationen verbessern, etwa durch eine bedarfsorientierte Ressourcenbereitstellung. Um aber die Cloud-Vorteile vollständig ausschöpfen zu können, ist auch eine neue Form der Anwendungsentwicklung erforderlich. Und hier sind wir dann beim Thema Cloud-native. Die Cloud-native Anwendungsentwicklung ist ein Ansatz zur Erstellung, Ausführung und Verbesserung von Apps, der auf bewährten Techniken des Cloud Computing basiert und eine schnelle Entwicklung und Aktualisierung von Anwendungen bei gleichzeitiger Verbesserung der Qualität und Minderung von Risiken ermöglicht.
(Red Hat: ra)

eingetragen: 05.03.20
Newsletterlauf: 28.05.20

Red Hat: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Tipps und Hinweise

  • Wie sich Teamarbeit im KI-Zeitalter verändert

    Liefertermine wackeln, Teams arbeiten unter Dauerlast, Know-how verschwindet in der Rente: In vielen Industrieunternehmen gehört der Ausnahmezustand zum Betriebsalltag. Gleichzeitig soll die Zusammenarbeit in Produktion, Qualitätskontrolle und Wartung immer schneller, präziser und vernetzter werden. Wie das KI-gestützt gelingen kann, zeigt der Softwarehersteller Augmentir an sechs konkreten Praxisbeispielen.

  • Vom Workaround zum Schatten-Account

    Um Aufgaben im Arbeitsalltag schneller und effektiver zu erfüllen, ist die Suche nach Abkürzungen Gang und Gebe. In Kombination mit dem technologischen Fortschritt erreicht die Effizienz menschlicher Arbeit so immer neue Höhen und das bringt Unternehmen unwissentlich in eine Zwickmühle: Die zwischen Sicherheit und Produktivität. Wenn ein Mitarbeiter einen Weg findet, seine Arbeit schneller oder besser zu erledigen, die Bearbeitung von Zugriffsanfragen durch die IT-Abteilung aber zu lange dauert oder zu kompliziert ist, dann finden Mitarbeiter oftmals "kreative" Lösungen, um trotzdem weiterarbeiten zu können. Diese "Workarounds" entstehen selten aus böser Absicht. Allerdings stellen sie gravierende Sicherheitslücken dar, denen sich viele Beschäftigte und Führungskräfte nicht bewusst sind.

  • KI in der Cloud sicher nutzen

    Keine Technologie hat die menschliche Arbeit so schnell und weitreichend verändert wie Künstliche Intelligenz. Dabei gibt es bei der Integration in Unternehmensprozesse derzeit keine Tür, die man KI-basierter Technologie nicht aufhält. Mit einer wachsenden Anzahl von KI-Agenten, LLMs und KI-basierter Software gibt es für jedes Problem einen Anwendungsfall. Die Cloud ist mit ihrer immensen Rechenleistung und Skalierbarkeit ein Motor dieser Veränderung und Grundlage für die KI-Bereitstellung.

  • Clever skalieren auf Basis bestehender Strukturen

    Da Generative AI zunehmend Teil unseres Alltags wird, befinden wir uns in einer KI-Phase, die sich durch außerordentliche Fähigkeiten und enormen Konsum auszeichnet. Was anfangs auf einer theoretischen Ebene stattgefunden hat, ist inzwischen messbar - und zwar bis zur kleinsten Einheit. Aktuelle Untersuchungen von Mistral AI und Google deuten darauf hin, dass die Folgen einer einzigen Interaktion vernachlässigbar sind: Bruchteile eines Watts, einige Tropfen Wasser und ein Kohlenstoffausstoß, der etwa dem entspricht, was beim Streamen eines Videos unter einer Minute verbraucht wird.

  • Von Cloud-First zu Cloud-Smart

    Die zunehmende Vernetzung von IT- und OT-Systemen bedeutet für die Fertigungsindustrie neue Sicherheitsrisiken. Ein moderner Cloud-Smart-Ansatz verbindet Innovation mit effektiven Sicherheitslösungen, um diesen Herausforderungen gerecht zu werden. Die industrielle Digitalisierung stellt die Fertigungsindustrie heute vor neue Herausforderungen - insbesondere in puncto Sicherheit.

  • Technik statt Vertrauen

    Die andauernden Turbulenzen in den USA seit Amtsantritt von Donald Trump, die konsequente Kürzung von Mitteln für Datenschutz und die Kontrolle staatlicher Überwachungsprogramme verdeutlichen: Wer als Behörde oder Institution höchste Datensicherheit garantieren muss, kann nicht auf US-amerikanische Unternehmen oder deren europäische Töchter setzen.

  • Risiko von SaaS-zu-SaaS-Integrationen

    Ein SaaS-Sicherheitsalbtraum für IT-Manager in aller Welt wurde kürzlich wahr: Hacker nutzten legitime OAuth-Tokens aus der Drift-Chatbot-Integration von Salesloft mit Salesforce, um unbemerkt Kundendaten von der beliebten CRM-Plattform zu exfiltrieren. Der ausgeklügelte Angriff deckt einen kritischen toten Winkel auf, von dem die meisten Sicherheits-Teams nicht einmal wissen, dass sie von ihm betroffen sind.

  • Kostenfallen erkennen und vermeiden

    Remote Work, Cloud Computing und mobile Endgeräte haben die Arbeitswelt grundlegend verändert. Mitarbeiter erwarten heute, von überall aus auf ihre Anwendungen und Daten zugreifen zu können. Virtuelle Desktop-Lösungen machen diese Flexibilität möglich, indem sie Desktop-Umgebungen und Anwendungen über das Netzwerk eines Unternehmens bereitstellen. Doch der Markt für solche Lösungen ist komplex und vielfältig. IT-Entscheider stehen vor der Herausforderung, aus dem Angebot die passende Lösung zu identifizieren, die sowohl technische Anforderungen als auch wirtschaftliche Ziele erfüllt.

  • Übergang in die neue Systemlandschaft

    Der Umstieg auf SAP S/4HANA ist bei vielen Unternehmen bereits in vollem Gange oder steht unmittelbar bevor. Wer in diesem Zusammenhang seine Archivierungsstrategie überdenkt, kann wertvolle Zeit, Kosten und Aufwand sparen. Die Archivierungsexperten von kgs haben zehn zentrale Aspekte zusammengestellt, die dabei helfen, den Übergang in die neue Systemlandschaft effizient und zukunftssicher zu gestalten.

  • Die Zukunft braucht offene KI-Infrastrukturen

    KI ist mehr als ein ominöses Hinterzimmer-Experiment. Die Technologie ist eine treibende Kraft, wenn es um Produkte, Entscheidungen und Nutzererfahrungen über jegliche Wirtschaftsbereiche hinaus geht. Mittlerweile stellen Unternehmen jedoch die Inferenz in den Mittelpunkt ihrer KI-Implementierungen. Hier können die Modelle ihren eigentlichen Mehrwert unter Beweis stellen - unter anderem in Form von Antworten auf drängende Fragen, Vorhersagen und Content-Generierung. Der Anstieg des Inferenz-Bedarfs bringt jedoch eine entscheidende Herausforderung mit sich. Bei Inferenzen handelt es sich nämlich nicht um einzelne Workloads.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen