- Anzeige -


Sie sind hier: Startseite » Markt » Tipps und Hinweise

Cloud-Trends werden Cloud-native


Ein Leben nach Jenkins: Consol stellt neue CI- und CD-Tools für Cloud-native Anwendungen auf den Prüfstand
Die DevOps-Methode soll den CI/CD-Circle beschleunigen. Cloud-native CI/CD Tools bringen diesen Prozess voran

- Anzeigen -





Cloud-native Anwendungen stellen spezifische Anforderungen an die Softwareentwicklung und -bereitstellung. Klassische CI- und CD-Tools stoßen hier schnell an ihre Grenzen. Consol stellt drei neue CI- und CD-Projekte vor und beleuchtet ihr Potenzial. Im Zuge des allgemeinen Cloud-Trends werden Cloud-native Applikationen immer wichtiger. Sie basieren verstärkt auf Microservices-Architekturen, die neue Anforderungen an Continuous Integration (CI) und Continuous Delivery (CD) stellen. CI- und CD-Tools sowie Workflows müssen sich vor allem an die Geschwindigkeit und die Komplexität der Cloud-nativen Möglichkeiten anpassen.

"Klassische" CI- und CD-Tools wie Jenkins mit ihren Funktionalitäten sind hier weniger geeignet. Stattdessen rücken inzwischen vermehrt neue Tools ins Blickfeld, die direkt aus der Cloud-nativen Entwicklung heraus entstanden sind und somit keine "Altlasten" mit sich tragen. Wichtige Kriterien, die sie erfüllen sollten, sind unter anderem Hosting und Scheduling auf Kubernetes, Container als Pipeline-Schritte, Web-UI und "Pipeline as Code".

Consol stellt drei neue Projekte beziehungsweise Tools vor.

1. Argo
Das Argo-Projekt besteht im Kern aus der gleichnamigen Workflow-Engine, die explizit für Kubernetes entworfen wurde. Argo-Workflows bestehen aus einer Reihe von beliebigen Containern, die über die üblichen Container-Schnittstellen parametrisiert werden. Die Bestandteile der Lösung, die Workflow-Engine selbst und das "Argo Events" genannte Event-Subprojekt, sind sehr schnell installiert. Die Installation umfasst im Wesentlichen vier Controller-Pods und das UI-Pod und ist somit leichtgewichtig. Argo kann problemlos dezentral pro Projekt installiert werden.

Dem Projekt ist anzumerken, dass es sich generisch auf Workflows spezialisiert und nicht speziell auf Continuous Integration zugeschnitten ist. Dennoch ist es möglich, aus den Argo-Komponenten eine effektive und vor allem flexible CI-Pipeline aufzubauen. Dazu existieren diverse Beispiele in den Repositories des Herstellers. So kann etwa via Argo Events eine Webhook-URL eingerichtet werden. Bei Aufruf startet sie einen Argo-Workflow als Pipeline, dessen Definition aus dem Git-Repository zu laden ist. Das Repository wird im Payload des Aufrufs angegeben. Damit ergibt sich letztlich eine "Pipeline as Code"-Funktionalität.

Für die Konfiguration sowohl der Workflows als auch der Event-Handler verwendet Argo ausschließlich Kubernetes-Objekte und Custom Resources. Das relativ spartanische, aber funktionale Web-Dashboard informiert über den aktuellen Stand der Workflows. Ein Command Line Client für das Definieren und Starten der Pipelines und ein separates Tool namens "Argo CD" für den Aspekt Delivery runden das Angebot ab.

2. InfraBox
InfraBox von SAP wird als "Cloud Native Continuous Integration System" positioniert und setzt ebenfalls auf Kubernetes auf. Das Deployment besteht aus einer größeren Menge an Pods inklusive einiger externer Abhängigkeiten und ist deswegen nicht mehr wirklich leichtgewichtig zu nennen.

Allerdings ist InfraBox das Tool mit der breitesten Feature-Palette. Es bringt bereits eine eigene Docker-Registry mit und laut Dokumentation werden viele Einsatzszenarien unterstützt, unter anderem auch eine Multi-Cluster-Installation, die sich über mehrere Cloud Provider erstrecken kann. Sogar eine integrierte Unterstützung für die Provisionierung von End-2-End-Testumgebungen ist vorhanden.

Auch InfraBox setzt auf Custom Resource Definitions, um Pipelines, Funktionen und die Ausführung dieser Artefakte zu verwalten. Die Pipelines laufen in einem dedizierten Namespace "infrabox-worker", was aber eher schlecht zu dezentralen Pipelines passt.

Die Pipeline-Schritte nennt InfraBox "Jobs". Es gibt mehrere Job-Typen mit vorgefertigten Funktionen, etwa um Repositories auszuchecken oder Images in die Registry zu übertragen. Darüber hinaus existiert aber auch ein generischer Job-Typ "docker-image", der beliebige Images ausführen kann.

Nicht zuletzt sind noch erwähnenswert das Web-UI, das vergleichsweise komfortabel ist und die Möglichkeit benutzerdefinierter Darstellungen bietet, und das Command Line Interface "infraboxcli", das den Entwickler beim lokalen Debugging von Jobs unterstützt.

3. Tekton und Jenkins X
Tekton ist ein sehr junges Projekt. Ursprünglich ging es aus Googles "Knative"-Produkt hervor, einer standardisierten Plattform für Serverless-Applikationen auf Kubernetes. Tekton ist der extrahierte Kern der "Build"-Komponente von Knative. Das Projekt wird von der ebenfalls erst vor Kurzem gegründeten "Continuous Delivery Foundation" verwaltet, die nach eigenen Aussagen der Fragmentierung der CI- und CD-Landschaft entgegentreten will. Neben Google und weiteren Unternehmen ist hier auch CloudBees Mitglied. Der Jenkins-Hersteller plant, Tekton als alternative Engine seiner eigenen Cloud-nativen CI- und CD-Lösung "Jenkins X" zu nutzen. Jenkins X besteht bisher aus dem bekannten Jenkins plus Kubernetes-Anbindung und speziellem Tooling. Aktuell ist diese Integration aber noch experimentell.

Als dedizierte Cloud-native Lösung macht Tekton einiges richtig. Sie basiert vollkommen auf Kubernetes-Scheduling und Pipelines werden als einzelne Pods mit mehreren Containern als Build-Schritte ausgeführt, die unter voller Kontrolle der Pipeline-Definition stehen. Das Interfacing ist "sauber", das heißt, es gibt keine proprietären Kommunikationswege zwischen CI und Container. Als Image-Build-Tool wird "Kaniko" propagiert. Die Installation ist leichtgewichtig und es gibt zwei zentrale Verwaltungs-Pods. Die Pipelines selbst werden als Custom Resources in den jeweiligen Projekten definiert und dort auch ausgeführt.

Bei Tekton handelt es sich allerdings noch um ein Projekt im Aufbau – die aktuelle Version ist 0.8.0 – vor allem auch im Hinblick auf die Dokumentation. Konzepte wie Webhook-Verarbeitung und ein Command Line Interface sind vorgesehen. "Pipeline as Code" mit Bezug der Definition aus einem Code-Repository wird zumindest im Zusammenspiel mit Jenkins X vermutlich möglich sein. CloudBees hat bereits in Aussicht gestellt, eine automatische Migration der herkömmlichen Jenkins-Files in das neue Format anzubieten.
"Alle drei vorgestellten Lösungen befinden sich auf einem guten Weg, das CI- und CD-Erbe von Jenkins anzutreten, da sie die aus unserer Sicht erforderlichen Kriterien erfüllen, auch wenn sie verschiedene Ansätze verfolgen und unterschiedliche Anforderungen abdecken", erklärt Oliver Weise, Senior Software Engineer bei Consol. "Das Argo-Projekt beinhaltet ein umfassendes Tool-Set für Workflows auf Kubernetes, bei dem CI nur ein Anwendungsfall unter anderen ist. InfraBox ist im Gegensatz dazu eine klassische, zentralistische Lösung mit einem reichen Feature-Set, schlüsselfertigen Funktionalitäten und dem von Jenkins gewohnten Komfort. Und Tekton als zukünftige Engine von Jenkins X ist aktuell eher noch als eine perspektivische Lösung zu betrachten, verspricht aber durchaus, eine hochinteressante Alternative zu werden." (Consol: ra)

eingetragen: 04.11.19
Newsletterlauf: 19.12.19

Consol: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Tipps und Hinweise

  • Einsatz Cloud-basierter ERP-Systeme

    Daten sind der Treibstoff des digitalen Wandels, und der enorme Zuwachs an Geschäftsanwendungen und Tools trägt dazu bei, dass die Datenmenge stetig wächst. So haben die Analysten von 451 Research herausgefunden, dass bei 29 Prozent der befragten Führungskräfte die Datenmenge um 100 bis 500 Gigabyte (GB) pro Tag und bei 19 Prozent sogar um 500 GB bis 1 Terabyte (TB) zunimmt. Bei 13 Prozent ist es ein Zuwachs von 2 TB. Eine umfassende Datenstrategie sowie ein gut gemanagter und sicherer Datenbestand, der Entscheidungen unterstützt, sind in diesem Zusammenhang mehr als ein Wettbewerbsvorteil, sondern essentieller Schlüssel zum Erfolg. Oracle gibt Unternehmen fünf Tipps, worauf sie in Bezug auf die sich stetig wandelnde Position des Chief Data Officer (CDO) achten sollten.

  • In fünf Schritten zu mehr Sicherheit in der Cloud

    Der beschleunigte Wandel der technischen Infrastruktur, die digitale Transformation und die zunehmende Cloud-Nutzung verändern die Herausforderungen für Unternehmen, ihre kritischen Vermögenswerte zu sichern, erheblich. Cloud-Security gewinnt somit immer mehr an Bedeutung. Die Dynamik der Public Cloud schafft dazu eine komplexe Steuerungsebene, in der zu schützende Daten in einer Umgebung wahrgenommen werden, die das Sicherheitsteam nicht kontrollieren oder überwachen kann. Die großen Plattformen Amazon, Google und Microsoft nehmen einen immer größeren Anteil des Cloud-Markts ein. Grund genug für Hacker, diese Plattformen aktuell sehr genau ins Visier zu nehmen, um deren Schwachstellen zu finden. Welche Maßnahmen können Unternehmen ergreifen, um ihre Cloud-Umgebung besser zu schützen?

  • Steigende Beliebtheit von Cloud-Lösungen

    Cloud Computing-Services werden bei deutschen Unternehmen immer beliebter: Im Jahr 2018 setzten laut Statista bereits 73 Prozent Cloud-Dienste ein. Laut Bitkom Research speichert die Hälfte deutscher Unternehmen auch personenbezogene Daten in der Cloud, rund ein Drittel der befragten Unternehmen sogar geschäftskritische Inhalte in der Public Cloud. Sicherheitsanbieter McAfee veröffentlichte jüngst noch genauere Zahlen, nach denen Office 365 31 Prozent, Salesforce rund 16 Prozent, Slack und Google Docs je 2 Prozent dieser Unternehmensdaten beherbergt. "Das ist problematisch, wenn man bedenkt, dass 47 Prozent der Unternehmen in 2018 Attacken auf Cloud-Services registrierten und im selben Jahr fast jeder zweite Anbieter von Cloud-Services zum Ziel einer DDoS-Attacke wurde", warnt Patrycja Tulinska, Geschäftsführerin der PSW Group. Nicht ohne Grund, denn der Nachholbedarf in Sachen Datensicherheit in der Cloud ist tatsächlich groß. Insbesondere in der Microsoft-eigenen Cloud-Lösung OneDrive stiegen die Missbrauchsvorfälle enorm: Allein im ersten Quartal 2019 wurden bereits 60 Vorkommnisse gezählt. Auch Dropbox wird vermehrt für Schadsoftware missbraucht: Zwischen dem letzten Quartal 2018 und dem ersten Quartal 2019 wurden mehr als 80 Vorfälle registriert.

  • Cloud-Angebotslücke schließen

    Noch hält sich in der Geschäftswelt hartnäckig der Irrglaube, dass Public Cloud Provider ausreichend Daten sichern. Ein gefährlicher Trugschluss, denn Gesetzesverstöße, IT-Ausfälle und die Unfähigkeit, darauf zu reagieren, können sehr schnell sehr teuer werden. Jedoch stehen Drittanbieter-Lösungen, die für die nötige Sicherheit und hohe Datenverfügbarkeit sorgen, längst bereit. In der Regel betreiben Unternehmen heute hybride, sich wandelnde Umgebungen. Jeder neue Cloud Provider, der hinzukommt, fordert die IT-Abteilung stark. Unter anderem ist es ihre Aufgabe, die nötigen Datensicherungen zu etablieren, die im Notfall zum Wiederherstellen dienen. "Zum Glück kümmern sich die Cloud Provider um Backup & Recovery", da die meisten Cloud Services als hochverfügbar ausgelegt sind, denken sich Verantwortliche dann oft und atmen auf. Leider ist das ein großer Irrtum, der fatale Folgen haben kann.

  • Sicherheit durch dedizierte Cloud-Ressourcen

    Unternehmen gehen immer öfter in die Public Cloud, sorgen sich gleichzeitig aber auch immer stärker um die Sicherheit ihrer Unternehmensdaten. Consol gibt vier Empfehlungen, die die Sicherheit in der Public Cloud gewährleisten. Diese und weitere Tipps stehen auch im Leitfaden "Cloud Security" von Consol kostenlos zum Download bereit. Was viele Unternehmen, die Angebote aus der Public Cloud nutzen, nicht wissen: Zwar ist der Cloud-Provider für die Sicherheit verantwortlich - aber lediglich für die Service-Schichten, die er seinen Kunden anbietet. Bei Infrastructure-as-a-Service (IaaS) zum Beispiel sind dies Netzwerk, Speicher, Server und Virtualisierung. Für die restlichen IaaS-Schichten Betriebssysteme, Middleware, Runtime, Daten und Applikationen trägt der Kunde die Verantwortung und muss sich selbst um die Sicherheit kümmern. Mit den folgenden vier Empfehlungen von Consol stehen Unternehmen auch in der Public Cloud auf der sicheren Seite.

  • ERP-Umstieg in die Cloud

    New Work, ein neues Arbeiten, ist die logische Konsequenz aus der fortschreitenden Digitalisierung. Flexibleres Arbeiten und Homeoffice-Modelle nehmen immer mehr zu. Das ERP-System als Schaltzentrale darf da nicht hinterherhinken - und so denken immer mehr Unternehmen über ein ERP aus der Cloud nach. Damit der Umstieg gelingt, empfiehlt proAlpha einen Acht-Punkte-Plan. Der Arbeitsplatz der Zukunft hat immer seltener einen festen Schreibtisch. Denn webbasierte Software aus dem Internet ermöglicht ein orts- und zeitunabhängiges Arbeiten. Für eine erfolgreiche Einführung von ERP-Systemen aus der Cloud empfiehlt der Software-Hersteller proAlpha acht Punkte zu beachten:

  • Strafzahlungen wegen Datenschutzverletzungen

    Graumarktanbieter sind kein neues Phänomen. Durch das gestiegene Interesse für Software-as-a-Service (SaaS) entstehen mehr und mehr Anbieter, die ihr Produkt auf illegalem Betriebsweg verkaufen. Nicht immer sind sich die Kunden beim Kauf über die Nachteile bewusst. Besonders, wenn es um Software geht, bietet die direkte Zusammenarbeit mit dem Hersteller mehr Sicherheit. Die OTRS AG hat vier Vorteile zusammengestellt, von denen Kunden bei einer direkten Zusammenarbeit mit dem Hersteller profitieren.

  • Sieben Tipps für mehr Security in der Public Cloud

    Sorgen um die Datensicherheit in der Public Cloud halten sich hartnäckig. Eine Sophos Studie beweist dann auch, dass eine reale Bedrohungslage existiert. Aber: Mehr Sicherheit in der Public Cloud geht. Sophos gibt sieben wertvolle Tipps. Die Cloud ist für Unternehmen eine feine Sache. Für passende Zwecke optimal eingesetzt gewährt sie unzählige Vorteile wie hohe Flexibilität oder eine Optimierung von Ressourcen und Budgets. Viele Unternehmen nutzen bereits heute eine Mischstruktur aus On-Premise-Installationen, Private Cloud und eben auch Public Cloud. Anbieter von Cloud Computing-Diensten betreiben dabei einen immensen Aufwand, um ihre Infrastruktur und Kundendaten zu schützen - mehr als die meisten Unternehmen für die hauseigene Infrastruktur. Grundsätzlich führt die Nutzung Cloudbasierter IT-Sicherheitslösungen daher oft sogar zu einem Sicherheitsgewinn. Dies gilt allerdings vor allem für Public-Cloud-Dienste im Bereich Software-as-a-Service (SaaS) und Business-Process-as-a-Service.

  • UCaaS-Lösungen bieten alle SaaS-Vorteile

    In vielen großen Unternehmen in Deutschland sollen derzeit die herkömmlichen On-Premise-Kommunikationslösungen ersetzt werden. Gesetzt ist meist - aufgrund der vielen Vorteile - der Schritt hin zu Unified Communications, bezogen als Software-as-a-Service (SaaS). Doch es gibt große Unterschiede zwischen verschiedenen UC-Lösungen, auch wenn sie oberflächlich betrachtet alle als SaaS-Angebote daherkommen. Dabei geht es nicht nur um den Preis, das Look and Feel oder einzelne Features. Die Unterschiede betreffen vielmehr alle Aspekte der Cloud-Strategie eines Großunternehmens. Der Unified-Communication-as-a-Service (UCaaS)-Anbieter Fuze kennt sich gut mit dieser Thematik aus und erläutert im folgenden Text die Unterschiede, damit Unternehmen eine fundierte Entscheidung über ihren künftigen UC-Partner treffen können.

  • Themen bei Microsoft-Kunden

    Laut IT-Dienstleisters Syntax stehen für Unternehmen, die Microsoft-Lösungen einsetzen, aktuell vor allem zwei große Aspekte im Mittelpunkt. Zum einen wird die Umsetzung von Modern-Workplace-Konzepten vorangetrieben, die dem Nutzer eine zentrale Schnittstelle für Kommunikation und Kollaboration mit einer einheitlichen Benutzeroberfläche bereitstellen und so interne und externe Prozesse effizienter gestalten. Der zweite große Trend ist die Migration oder Neuimplementierung kritischer Anwendungen und Prozesse auf Microsoft Azure als zentraler Public-Cloud-Plattform und die Nutzung von Plattformdiensten, die unter anderem auf künstlicher Intelligenz basieren und so neue Umsatzmodelle ermöglichen. Bei der Umsetzung dieser Ziele setzt Syntax auf ausgezeichnete Expertise, gerade wurde Constantin Klein, Team Lead Microsoft Consulting bei Syntax, zum zehnten Mal in Folge von Microsoft als "Most Valuable Professional" (MVP) ausgezeichnet.