- Anzeige -


Sie sind hier: Startseite » Markt » Tipps und Hinweise

Cloud-Trends werden Cloud-native


Ein Leben nach Jenkins: Consol stellt neue CI- und CD-Tools für Cloud-native Anwendungen auf den Prüfstand
Die DevOps-Methode soll den CI/CD-Circle beschleunigen. Cloud-native CI/CD Tools bringen diesen Prozess voran

- Anzeigen -





Cloud-native Anwendungen stellen spezifische Anforderungen an die Softwareentwicklung und -bereitstellung. Klassische CI- und CD-Tools stoßen hier schnell an ihre Grenzen. Consol stellt drei neue CI- und CD-Projekte vor und beleuchtet ihr Potenzial. Im Zuge des allgemeinen Cloud-Trends werden Cloud-native Applikationen immer wichtiger. Sie basieren verstärkt auf Microservices-Architekturen, die neue Anforderungen an Continuous Integration (CI) und Continuous Delivery (CD) stellen. CI- und CD-Tools sowie Workflows müssen sich vor allem an die Geschwindigkeit und die Komplexität der Cloud-nativen Möglichkeiten anpassen.

"Klassische" CI- und CD-Tools wie Jenkins mit ihren Funktionalitäten sind hier weniger geeignet. Stattdessen rücken inzwischen vermehrt neue Tools ins Blickfeld, die direkt aus der Cloud-nativen Entwicklung heraus entstanden sind und somit keine "Altlasten" mit sich tragen. Wichtige Kriterien, die sie erfüllen sollten, sind unter anderem Hosting und Scheduling auf Kubernetes, Container als Pipeline-Schritte, Web-UI und "Pipeline as Code".

Consol stellt drei neue Projekte beziehungsweise Tools vor.

1. Argo
Das Argo-Projekt besteht im Kern aus der gleichnamigen Workflow-Engine, die explizit für Kubernetes entworfen wurde. Argo-Workflows bestehen aus einer Reihe von beliebigen Containern, die über die üblichen Container-Schnittstellen parametrisiert werden. Die Bestandteile der Lösung, die Workflow-Engine selbst und das "Argo Events" genannte Event-Subprojekt, sind sehr schnell installiert. Die Installation umfasst im Wesentlichen vier Controller-Pods und das UI-Pod und ist somit leichtgewichtig. Argo kann problemlos dezentral pro Projekt installiert werden.

Dem Projekt ist anzumerken, dass es sich generisch auf Workflows spezialisiert und nicht speziell auf Continuous Integration zugeschnitten ist. Dennoch ist es möglich, aus den Argo-Komponenten eine effektive und vor allem flexible CI-Pipeline aufzubauen. Dazu existieren diverse Beispiele in den Repositories des Herstellers. So kann etwa via Argo Events eine Webhook-URL eingerichtet werden. Bei Aufruf startet sie einen Argo-Workflow als Pipeline, dessen Definition aus dem Git-Repository zu laden ist. Das Repository wird im Payload des Aufrufs angegeben. Damit ergibt sich letztlich eine "Pipeline as Code"-Funktionalität.

Für die Konfiguration sowohl der Workflows als auch der Event-Handler verwendet Argo ausschließlich Kubernetes-Objekte und Custom Resources. Das relativ spartanische, aber funktionale Web-Dashboard informiert über den aktuellen Stand der Workflows. Ein Command Line Client für das Definieren und Starten der Pipelines und ein separates Tool namens "Argo CD" für den Aspekt Delivery runden das Angebot ab.

2. InfraBox
InfraBox von SAP wird als "Cloud Native Continuous Integration System" positioniert und setzt ebenfalls auf Kubernetes auf. Das Deployment besteht aus einer größeren Menge an Pods inklusive einiger externer Abhängigkeiten und ist deswegen nicht mehr wirklich leichtgewichtig zu nennen.

Allerdings ist InfraBox das Tool mit der breitesten Feature-Palette. Es bringt bereits eine eigene Docker-Registry mit und laut Dokumentation werden viele Einsatzszenarien unterstützt, unter anderem auch eine Multi-Cluster-Installation, die sich über mehrere Cloud Provider erstrecken kann. Sogar eine integrierte Unterstützung für die Provisionierung von End-2-End-Testumgebungen ist vorhanden.

Auch InfraBox setzt auf Custom Resource Definitions, um Pipelines, Funktionen und die Ausführung dieser Artefakte zu verwalten. Die Pipelines laufen in einem dedizierten Namespace "infrabox-worker", was aber eher schlecht zu dezentralen Pipelines passt.

Die Pipeline-Schritte nennt InfraBox "Jobs". Es gibt mehrere Job-Typen mit vorgefertigten Funktionen, etwa um Repositories auszuchecken oder Images in die Registry zu übertragen. Darüber hinaus existiert aber auch ein generischer Job-Typ "docker-image", der beliebige Images ausführen kann.

Nicht zuletzt sind noch erwähnenswert das Web-UI, das vergleichsweise komfortabel ist und die Möglichkeit benutzerdefinierter Darstellungen bietet, und das Command Line Interface "infraboxcli", das den Entwickler beim lokalen Debugging von Jobs unterstützt.

3. Tekton und Jenkins X
Tekton ist ein sehr junges Projekt. Ursprünglich ging es aus Googles "Knative"-Produkt hervor, einer standardisierten Plattform für Serverless-Applikationen auf Kubernetes. Tekton ist der extrahierte Kern der "Build"-Komponente von Knative. Das Projekt wird von der ebenfalls erst vor Kurzem gegründeten "Continuous Delivery Foundation" verwaltet, die nach eigenen Aussagen der Fragmentierung der CI- und CD-Landschaft entgegentreten will. Neben Google und weiteren Unternehmen ist hier auch CloudBees Mitglied. Der Jenkins-Hersteller plant, Tekton als alternative Engine seiner eigenen Cloud-nativen CI- und CD-Lösung "Jenkins X" zu nutzen. Jenkins X besteht bisher aus dem bekannten Jenkins plus Kubernetes-Anbindung und speziellem Tooling. Aktuell ist diese Integration aber noch experimentell.

Als dedizierte Cloud-native Lösung macht Tekton einiges richtig. Sie basiert vollkommen auf Kubernetes-Scheduling und Pipelines werden als einzelne Pods mit mehreren Containern als Build-Schritte ausgeführt, die unter voller Kontrolle der Pipeline-Definition stehen. Das Interfacing ist "sauber", das heißt, es gibt keine proprietären Kommunikationswege zwischen CI und Container. Als Image-Build-Tool wird "Kaniko" propagiert. Die Installation ist leichtgewichtig und es gibt zwei zentrale Verwaltungs-Pods. Die Pipelines selbst werden als Custom Resources in den jeweiligen Projekten definiert und dort auch ausgeführt.

Bei Tekton handelt es sich allerdings noch um ein Projekt im Aufbau – die aktuelle Version ist 0.8.0 – vor allem auch im Hinblick auf die Dokumentation. Konzepte wie Webhook-Verarbeitung und ein Command Line Interface sind vorgesehen. "Pipeline as Code" mit Bezug der Definition aus einem Code-Repository wird zumindest im Zusammenspiel mit Jenkins X vermutlich möglich sein. CloudBees hat bereits in Aussicht gestellt, eine automatische Migration der herkömmlichen Jenkins-Files in das neue Format anzubieten.
"Alle drei vorgestellten Lösungen befinden sich auf einem guten Weg, das CI- und CD-Erbe von Jenkins anzutreten, da sie die aus unserer Sicht erforderlichen Kriterien erfüllen, auch wenn sie verschiedene Ansätze verfolgen und unterschiedliche Anforderungen abdecken", erklärt Oliver Weise, Senior Software Engineer bei Consol. "Das Argo-Projekt beinhaltet ein umfassendes Tool-Set für Workflows auf Kubernetes, bei dem CI nur ein Anwendungsfall unter anderen ist. InfraBox ist im Gegensatz dazu eine klassische, zentralistische Lösung mit einem reichen Feature-Set, schlüsselfertigen Funktionalitäten und dem von Jenkins gewohnten Komfort. Und Tekton als zukünftige Engine von Jenkins X ist aktuell eher noch als eine perspektivische Lösung zu betrachten, verspricht aber durchaus, eine hochinteressante Alternative zu werden." (Consol: ra)

eingetragen: 04.11.19
Newsletterlauf: 19.12.19

Consol: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Tipps und Hinweise

  • Den richtigen MSSP auswählen

    Für angemessene IT-Sicherheit zu sorgen, wird immer aufwändiger. Denn einerseits wächst die Bedrohungslage, andererseits werden Security-Lösungen immer komplexer. Hinzu kommt - insbesondere auch bei vielen Mittelständlern - der Fachkräftemangel. Viele Unternehmen entscheiden sich daher, Security-Prozesse an einen spezialisierten Dienstleister auszulagern. Worauf Sie dabei achten sollten und woran Sie einen professionellen Service Provider erkennen, erklärt Ulrich Pfister, Head of Consulting, bei indevis. Eben mal die besten Security-Produkte kaufen und in Betrieb nehmen - so einfach funktioniert IT-Sicherheit leider nicht. Denn die Tools und Lösungen müssen auch richtig zusammenspielen und man muss sie kontinuierlich managen. Das aber erfordert fundiertes Know-how und entsprechende personelle Ressourcen. Beides ist in Zeiten des Fachkräftemangels schwer zu finden. In vielen Unternehmen arbeiten die IT-Abteilungen ohnehin schon am Rande ihrer Kapazitäten.

  • Cloud Security durch SASE

    Forcepoint zeigt auf, wie CISOs ihre Unternehmen heute schon auf die Zukunft von Networking und Security vorbereiten können. Die digitale Transformation stellt die herkömmlichen IT-Sicherheitsarchitekturen der Unternehmen zunehmend vor Probleme. Immer mehr Anwendungen werden in die Cloud verlagert und immer mehr Nutzer greifen darauf remote oder mobil zu - und damit von außerhalb der Firmennetzwerke. Um die klassischen On-Premises-Sicherheitsvorkehrungen durchlaufen zu können, muss der Datenfluss dabei über das zentrale Rechenzentrum umgeleitet werden. Das führt zu schwacher Performance und hohen Latenzen.

  • Die intelligente Generation der IT-Infrastruktur

    Hardware, Software, Infrastrukturen - mit ihnen ist das so eine Sache. Vom Start-up bis zum Enterprise-Konzern: Alle benötigen bestenfalls neueste, hochwertige und leistungsfähige IT, doch bedeuten diese Attribute automatisch einen großen Einsatz finanzieller Mittel. "Gerade Start-ups und noch relativ junge Mittelständler haben oft das Problem, dass sich die Anforderungen an die Infrastrukturen schnell ändern können und dann schon nach kurzer Zeit eine Systemüberlastung entsteht. Oder es wird in teure Systeme investiert, deren Möglichkeiten dann zwar bezahlt, aber nicht gänzlich genutzt werden", weiß Torben Belz, Geschäftsführer der Plutex GmbH aus Bremen. Hosting- oder Colocationmodelle stellen nicht nur kostengünstige Alternativen zu einem Kauf dar, sondern ermöglichen auch Flexibilität und steigern in manchen Fällen sogar die Datensicherheit.

  • Lektion zur Datensicherheit

    Da Schüler, Studenten, Lehrkräfte und Dozenten zunehmend digitale Inhalte, Cloud-Dienste und Online-Anwendungen nutzen, haben Bildungseinrichtungen mit einem exponentiellen Wachstum der von ihnen verarbeiteten Datenmengen zu kämpfen. Um dieser datenintensiven Situation gerecht zu werden, benötigen sie effiziente und zugleich erschwingliche Möglichkeiten, um ihren Speicherbedarf zu erweitern und die Datensicherung und -wiederherstellung zu verbessern. Um angesichts des extremen Budgetdrucks effizienter und kostengünstiger wirtschaften zu können, sucht der Bildungssektor nach neuen Wegen und Möglichkeiten. Inzwischen findet die Cloud dabei zunehmend mehr Beachtung. Die Bildungsbranche hat erkannt, dass die Cloud zusätzliche, leistungsfähige Funktionen bietet - und das äußerst kostengünstig. Denn wer sich auf die Cloud verlässt, muss kein großes IT-Team vorhalten oder gar ein eigenes Rechenzentrum betreiben. Deshalb wünschen sich Bildungseinrichtungen von der Cloud, dass sie so sicher wie möglich ist und dass der jeweilige Cloud-Anbieter die Verantwortung für den Schutz der Daten übernimmt.

  • Cloud Security-Lösungen gegen APTs

    Mit der fortschreitenden Digitalisierung entwickeln sich auch die Geschäftsanforderungen rasant weiter. Dabei ist die schnelle Bereitstellung von Unternehmensanwendungen für die Einführung neuer, verbesserter Geschäftsabläufe zentral. Für viele Unternehmen ist die Auslagerung von Workloads in die Public Cloud dafür das Mittel der Wahl. Hochverfügbarkeit, Skalierbarkeit sowie Kosteneffizienz eröffnen die Möglichkeit, innovative betriebliche Entwicklungen mit geringem Aufwand umzusetzen. Was die Risikoeinschätzung für die dort gespeicherten Daten anbelangt, müssen viele Unternehmen jedoch umdenken.

  • Sicherheitsanforderungen der Kunden umzusetzen

    Einer aktuellen Bitkom-Studie zu Folge arbeitet momentan jeder zweite Arbeitnehmer mehr oder weniger freiwillig von zu Hause. In vielen Unternehmen wurden die situativ erforderlichen, oftmals neuen Arbeitsregelungen allerdings hastig und wenig vorbereitet eingeführt. Selbst dort, wo Homeoffice bislang gewährt wurde, stellt dieser Schritt eine einschneidende Entscheidung dar. Wo bislang nur manche Mitarbeitergruppen an einzelnen Tagen von zu Hause arbeiten konnten, wurden nun beinahe alle Mitarbeiter in die Heimarbeit geschickt. Daher überrascht es wenig, dass sich laut Bitkom fast 40 Prozent der Mitarbeiter nicht ausreichend für eine Arbeit daheim gerüstet sehen. Managed Service Provider können hier ihre Kunden mit flexiblen und dabei sicheren Lösungen unterstützen. Etwa, indem sie die Wartung der IT aus der Ferne übernehmen und so für eine sichere und stabile IT-Infrastruktur für die Arbeit im Homeoffice sorgen: Remote Monitoring und Management, sowie Cloud Security und Backup können dabei helfen, auch in Infrastruktur-belastenden Krisenzeiten produktive und sichere Arbeitsumgebungen bereitzustellen.

  • Gesundheit der Mitarbeiter oberste Priorität

    Die COVID-19-Pandemie hat Unternehmen weltweit dazu gezwungen, bestehende Unternehmensstrukturen und Arbeitsweisen zu hinterfragen und neu zu denken. Aktuell dominieren Spekulationen darüber, wann sich das Arbeitsleben und der tägliche Umgang miteinander wieder normalisieren - doch was wird nach der Krise "normal" sein? Bereits jetzt ist klar, dass es Veränderungen geben wird und neue, flexiblere Arbeitsweisen endgültig starre Routinen ersetzen. Daher müssen sich Unternehmen schon jetzt damit befassen, wie die Arbeitswelt nach COVID-19 aussehen wird und was ihre Mitarbeiter hierfür benötigen werden.

  • Für zuverlässige Endpoint-Security-Maßnahmen

    Eine entscheidende Maßnahme zur Verlangsamung der Ausbreitung von COVID-19 ist "Social Distancing". Deshalb erlassen viele kommunale und staatliche Einrichtungen jetzt verbindliche Anordnungen hinsichtlich der räumlichen Trennung von Personen. Das hat dazu geführt, dass IT-Teams praktisch über Nacht dafür sorgen müssen, dass die Mitarbeiter von Unternehmen aus dem Homeoffice arbeiten können. Da diese Situation weltweit auf Millionen von Menschen gleichzeitig zutrifft, erleben wir gerade das größte Remote-Working-Projekt aller Zeiten. Der Umzug von Mitarbeitern, deren Computern und ihren Daten aus einer sicheren Büroumgebung ins häusliche Umfeld birgt ein enormes Risiko für die Datensicherheit, technische Störungen, versehentliche Fehler oder gar Cyberattacken. Die nachfolgenden Schritte skizzieren, wie Unternehmen dafür sorgen können, dass langfristig ein sicheres Remote Working möglich ist.

  • Ursachen für das Scheitern von Cloud-Migrationen

    Die Digitalisierung führt in Unternehmen zu einem beispiellos hohen Datenaufkommen. SQL Server-Datenbanken aus Microsoft Azure oder Amazon Web Services (AWS) zu betreiben, sehen viele Unternehmen daher als geeigneten Weg an, um angesichts wachsender Datenflut und komplexeren Analyseanforderungen Performanz und Leistung der IT sicherstellen zu können. Die anfängliche Hoffnung, durch den Wechsel in die Cloud kosteneffizienter arbeiten zu können, erfüllt sich für manche allerdings nicht. Eine bedeutende Ursache dafür könnte darin bestehen, dass Datenbestände vorab nicht für die neue Cloud Computing-Umgebung optimiert wurden. Die Migration sollte deshalb erst nach eingehender Vorbereitung vollzogen werden. Bei der Migration in die Cloud verhält es sich ähnlich wie bei einem Wohnungsumzug: Während man Regale ausräumt und seine Besitztümer in Augenschein nimmt, tauchen Gegenstände auf, von denen man sich gar nicht mehr bewusst war, dass man sie besitzt. Die Frage, die sich dabei unweigerlich aufdrängt, ist: Hat der gesamte Hausstand in der neuen Wohnung noch Relevanz? Oder ist der Zeitpunkt gekommen, einige Bestandteile auszusortieren?

  • Umsetzung einer Cloud-Strategie

    Die Sicherung von Innovations- und Wettbewerbsstärke steht üblicherweise in jedem Lastenheft von Unternehmenslenkern. Doch auch die Entwicklung von Strategien zur Aufrechterhaltung des Geschäftsbetriebs in weniger rosigen Zeiten nimmt an Bedeutung zu. Die jüngsten Ereignisse zeigen, dass dies für viele Unternehmen bedeutet, die Digitalisierung mit Nachdruck voranzutreiben und dabei auch die eigene IT-Strategie auf den Prüfstand zu stellen.