Sie sind hier: Startseite » Markt » Tipps und Hinweise

Eckpfeiler einer Cloud-nativen Entwicklung


Cloud und Cloud-native: Der Unterschied ist gravierend
Vom Begriff Cloud-native zu unterscheiden ist der Terminus Cloud-enabled



Cloud-native ist nicht Cloud und auch nicht Cloud-enabled. Die weitreichenden Vorteile, die die Cloud bietet, kann ein Unternehmen nur optimal ausschöpfen, wenn auch die Anwendungsentwicklung Cloud-native erfolgt. Matthias Kranz, Director Solution Architects Germany bei Red Hat, bringt Licht ins Dunkel. Das Substantiv Cloud bezieht sich nur auf den Ort für das Deployment von Hardware und Software, etwa für Server, Storage, Datenbanken und alle möglichen Formen von Applikationen und Services.

Cloud-native
Das Adjektiv Cloud-native hingegen beschreibt einen Ansatz für die Konzeption und den Betrieb von Applikationen, der die Vorteile des Cloud Computing-Modells nutzt, etwa im Hinblick auf Agilität und Automation. Trotz des Namens bezieht sich Cloud-native nicht auf den Ort des Applikations-Deployments, sondern auf die Art und Weise, wie Applikationen konzipiert, bereitgestellt und verwaltet werden. Cloud-native bedeutet also nicht, dass der Betrieb von Applikationen unbedingt in der Cloud erfolgen muss, auch ein On-Premise-Einsatz ist möglich. Ziel des Cloud-nativen Konzepts ist die Steigerung von Geschwindigkeit, Flexibilität und Qualität bei der Applikationsentwicklung unter gleichzeitiger Reduzierung der Risiken.

Cloud-enabled
Vom Begriff Cloud-native zu unterscheiden ist zudem der Terminus Cloud-enabled. Er bedeutet lediglich, dass traditionell entwickelte Applikationen für den Betrieb in der Cloud angepasst werden. Eine Cloud-enabled-Anwendung ist eine Anwendung, die in die Cloud verlagert wurde, aber ursprünglich für den Einsatz in einem herkömmlichen Rechenzentrum entwickelt ist. Dabei handelt es sich typischerweise um Legacy- und Enterprise-Software. Für die Verlagerung ist es erforderlich, einige Charakteristiken der Applikation zu ändern oder für die Cloud zu adaptieren. Eine gängige Methode für die Cloud-Migration ist dabei das "Lift and Shift"-Verfahren. Eine Cloud-native Anwendung ist im Unterschied dazu eine Anwendung, die bereits in ihrem Design mit den Cloud-Prinzipien der Mandantenfähigkeit, der elastischen Skalierung und der einfachen Integration und Verwaltung konzipiert ist.

Doch was zeichnet das Cloud-native Konzept nun konkret aus? Die Cloud-nativen Entwicklungen charakterisieren im Wesentlichen vier Punkte: Service-basierte Architektur, API-basierte Kommunikation, Container-basierte Infrastruktur und DevOps-Prozesse.

Service-basierte Architekturen wie Microservices ermöglichen den Aufbau modularer, lose gekoppelter Dienste. Andere modulare Architekturansätze – zum Beispiel Miniservices – bieten Unternehmen eine entscheidende Unterstützung bei der Beschleunigung der Anwendungserstellung, ohne dass dabei die Komplexität steigt.

Die Services werden über leichtgewichtige, Technologie-agnostische APIs bereitgestellt, die die Komplexität und den Aufwand beim Deployment sowie bei der Skalierung und Wartung reduzieren. Das API-basierte Design ermöglicht nur die Kommunikation per Service-Interface-Aufrufen über das Netzwerk, sodass die Risiken von direkten Verknüpfungen, Shared-Memory-Modellen oder direkten Lesezugriffen auf den Datenspeicher eines anderen Teams vermieden werden.

Cloud-native Anwendungen basieren auf Containern, die einen Betrieb in verschiedenen Technologieumgebungen ermöglichen und damit echte Anwendungsportabilität unterstützen, etwa im Hinblick auf Public, Private und Hybrid Cloud. Die Containertechnologie nutzt die Virtualisierungsfunktionen des Betriebssystems, um die verfügbaren Rechenressourcen auf mehrere Anwendungen aufzuteilen und um gleichzeitig zu gewährleisten, dass die Anwendungen sicher und voneinander isoliert sind. Cloud-native Anwendungen skalieren horizontal, dadurch können weitere Anwendungsinstanzen einfach hinzugefügt werden – oft durch Automatisierung innerhalb der Containerinfrastruktur. Durch den geringen Overhead und die hohe Dichte können zahlreiche Container innerhalb derselben virtuellen Maschine oder desselben physischen Servers gehostet werden. Dadurch sind sie auch ideal geeignet für die Bereitstellung von Cloud-nativen Anwendungen.

Die Anwendungsentwicklung für Cloud-native Ansätze folgt agilen Methoden mit Continuous-Delivery- und DevOps-Prinzipien, die auf die kollaborative Erstellung und Bereitstellung von Anwendungen durch Teams aus Entwicklung, Qualitätssicherung, IT-Sicherheit und IT-Betrieb fokussieren.

Oft ist noch eine Verwirrung um die Begriffe Cloud und Cloud-native anzutreffen. Prinzipiell können Unternehmen, die auf Cloud Computing setzen, die Skalierbarkeit und Verfügbarkeit ihrer Applikationen verbessern, etwa durch eine bedarfsorientierte Ressourcenbereitstellung. Um aber die Cloud-Vorteile vollständig ausschöpfen zu können, ist auch eine neue Form der Anwendungsentwicklung erforderlich. Und hier sind wir dann beim Thema Cloud-native. Die Cloud-native Anwendungsentwicklung ist ein Ansatz zur Erstellung, Ausführung und Verbesserung von Apps, der auf bewährten Techniken des Cloud Computing basiert und eine schnelle Entwicklung und Aktualisierung von Anwendungen bei gleichzeitiger Verbesserung der Qualität und Minderung von Risiken ermöglicht.
(Red Hat: ra)

eingetragen: 05.03.20
Newsletterlauf: 28.05.20

Red Hat: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Tipps und Hinweise

  • XLAs: Der Mensch als Maßstab

    Über Jahrzehnte galten Service Level Agreements (SLAs) als Maßstab für gutes IT- und Servicemanagement: Wurde ein Ticket fristgerecht gelöst, war die Aufgabe erledigt. Doch in einer zunehmend digitalisierten Arbeitswelt zeigt sich: Diese Logik greift zu kurz. Effizienz allein entscheidet nicht mehr, ob Mitarbeitende zufrieden und produktiv bleiben. Gefragt ist ein neues Verständnis, das die tatsächliche Erfahrung der Menschen in den Mittelpunkt rückt.

  • Cloud-Souveränität immer stärker im Mittelpunkt

    Mit dem rasanten Fortschritt der digitalen Wirtschaft und dem Aufkommen zahlreicher neuer Technologien - allen voran Künstlicher Intelligenz (KI) - stehen europäische Entscheidungsträger vor einer neuen Herausforderung: Wie lässt sich ein innovatives Ökosystem regionaler Cloud-Anbieter schaffen, das sowohl leistungsfähige Lösungen als auch ausreichende Skalierbarkeit bietet? Und wie kann dieses Ökosystem mit internationalen Anbietern konkurrieren und zugleich die Abhängigkeit von ihnen verringern? Politik, Regulierungsbehörden, Forschungseinrichtungen und Industrievertreter in Europa konzentrieren sich darauf, wie der Kontinent seine Position im globalen Wettlauf um Cloud-Innovationen verbessern kann - ohne dabei die Kontrolle, Autonomie und Vertraulichkeit über europäische Daten aufzugeben, die andernfalls womöglich in anderen Märkten gespeichert, verarbeitet oder abgerufen würden.

  • Vom Nearshoring zum Smart Sourcing

    Aufgrund des enormen IT-Fachkräftemangels und der wachsenden Anforderungen von KI und digitaler Transformationen benötigen Unternehmen heute flexible und kosteneffiziente Lösungen, um wettbewerbsfähig zu bleiben. Für die Umsetzung anspruchsvoller Innovationsprojekte mit hohen Qualitätsstandards entscheiden sich deshalb viele Unternehmen für Nearshoring, da dieses Modell ihnen Zugang zu hochausgebildeten IT-Fachkräften in räumlicher und kultureller Nähe ermöglicht.

  • Sechs stille Killer des Cloud-Backups

    Cloud-Backups erfreuen sich zunehmender Beliebtheit, da sie auf den ersten Blick eine äußerst einfache und praktische Maßnahme zu Schutz von Daten und Anwendungen sind. Andy Fernandez, Director of Product Management bei Hycu, nennt in der Folge sechs "stille Killer", welche die Performance von Cloud-Backups still und leise untergraben. Diese werden außerhalb der IT-Teams, die täglich damit zu tun haben, nicht immer erkannt, können aber verheerende Folgen haben, wenn sie ignoriert werden.

  • Datenaufbewahrungsstrategie und SaaS

    Die Einhaltung von Richtlinien zur Datenaufbewahrung sind für Unternehmen unerlässlich, denn sie sorgen dafür, dass wertvolle Informationen sicher gespeichert und Branchenvorschriften - egal wie komplex sie sind - eingehalten werden. Diese Governance-Frameworks legen fest, wie Unternehmen sensible Daten verwalten - von deren Erstellung und aktiven Nutzung bis hin zur Archivierung oder Vernichtung. Heute verlassen sich viele Unternehmen auf SaaS-Anwendungen wie Microsoft 365, Salesforce und Google Workspace. Die Verlagerung von Prozessen und Daten in die Cloud hat jedoch eine gefährliche Lücke in die Zuverlässigkeit der Datenaufbewahrung gerissen, denn die standardmäßigen Aufbewahrungsfunktionen der Drittanbieter entsprechen häufig nicht den Compliance-Anforderungen oder Datenschutzzielen.

  • Lücken der SaaS-Plattformen schließen

    Die zunehmende Nutzung von Software-as-a-Service (SaaS)-Anwendungen wie Microsoft 365, Salesforce oder Google Workspace verändert die Anforderungen an das Datenmanagement in Unternehmen grundlegend. Während Cloud-Dienste zentrale Geschäftsprozesse unterstützen, sind standardmäßig bereitgestellte Datenaufbewahrungsfunktionen oft eingeschränkt und können die Einhaltung der Compliance gefährden. Arcserve hat jetzt zusammengefasst, worauf es bei der Sicherung der Daten führender SaaS-Anbieter ankommt.

  • Nicht mehr unterstützte Software managen

    Von Windows bis hin zu industriellen Produktionssystemen: Wie veraltete Software Unternehmen angreifbar macht und welche Strategien jetzt nötig sind Veraltete Software ist weit verbreitet - oft auch dort, wo man es nicht sofort vermuten würde. Beispiele für besonders langlebige Anwendungen sind das SABRE-Flugbuchungssystem oder die IRS-Systeme "Individual Master File" und "Business Master File" für Steuerdaten, die seit den frühen 1960er-Jahren im Einsatz sind. Während solche Anwendungen ihren Zweck bis heute erfüllen, existiert daneben eine Vielzahl alter Software, die längst zum Sicherheitsrisiko geworden ist.

  • Wie sich Teamarbeit im KI-Zeitalter verändert

    Liefertermine wackeln, Teams arbeiten unter Dauerlast, Know-how verschwindet in der Rente: In vielen Industrieunternehmen gehört der Ausnahmezustand zum Betriebsalltag. Gleichzeitig soll die Zusammenarbeit in Produktion, Qualitätskontrolle und Wartung immer schneller, präziser und vernetzter werden. Wie das KI-gestützt gelingen kann, zeigt der Softwarehersteller Augmentir an sechs konkreten Praxisbeispielen.

  • Vom Workaround zum Schatten-Account

    Um Aufgaben im Arbeitsalltag schneller und effektiver zu erfüllen, ist die Suche nach Abkürzungen Gang und Gebe. In Kombination mit dem technologischen Fortschritt erreicht die Effizienz menschlicher Arbeit so immer neue Höhen und das bringt Unternehmen unwissentlich in eine Zwickmühle: Die zwischen Sicherheit und Produktivität. Wenn ein Mitarbeiter einen Weg findet, seine Arbeit schneller oder besser zu erledigen, die Bearbeitung von Zugriffsanfragen durch die IT-Abteilung aber zu lange dauert oder zu kompliziert ist, dann finden Mitarbeiter oftmals "kreative" Lösungen, um trotzdem weiterarbeiten zu können. Diese "Workarounds" entstehen selten aus böser Absicht. Allerdings stellen sie gravierende Sicherheitslücken dar, denen sich viele Beschäftigte und Führungskräfte nicht bewusst sind.

  • KI in der Cloud sicher nutzen

    Keine Technologie hat die menschliche Arbeit so schnell und weitreichend verändert wie Künstliche Intelligenz. Dabei gibt es bei der Integration in Unternehmensprozesse derzeit keine Tür, die man KI-basierter Technologie nicht aufhält. Mit einer wachsenden Anzahl von KI-Agenten, LLMs und KI-basierter Software gibt es für jedes Problem einen Anwendungsfall. Die Cloud ist mit ihrer immensen Rechenleistung und Skalierbarkeit ein Motor dieser Veränderung und Grundlage für die KI-Bereitstellung.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen