- Anzeige -


Sie sind hier: Startseite » Fachartikel » Grundlagen

DevOps werden zunehmend datengetrieben


DevOps-Trends 2020: Diese Trends sollten Sie nicht verschlafen
Die Wahl einer passenden RAD-Plattform, welche sich an die unternehmenseigene Cloud-Strategie anpasst und zukunftsfähige API-Integration bietet, wird am Markt als Wunschlösung in Kombination mit einer wachsenden DevOps-Kultur angesehen

- Anzeigen -





Von Christoph Garms, Managing Director, Neptune Software GmbH

DevOps haben sich in der Software-Entwicklung in den vergangenen Jahren immer weiter durchgesetzt. Die effizientere und effektivere Zusammenarbeit von Entwicklung und IT-Betrieb bringt allen Beteiligten zahlreiche Vorteile: So steigt nicht nur die Qualität der Software, sondern auch die Geschwindigkeit, mit der neue Lösungen entwickelt und ausgeliefert werden. In 2019 haben wir gesehen, dass Automatisierung, künstliche Intelligenz und AIOps immer häufiger eingesetzt und von der DevOps-Gemeinschaft erforscht werden. Container und Functions as a Service nahmen weiter zu, so dass Entwickler und Betriebsteams ihre Anwendungen und Infrastruktur besser kontrollieren konnten, ohne die Geschwindigkeit zu beeinträchtigen. Doch wohin geht die Reise jetzt?

Der Produkt-zentrische Ansatz
Immer mehr Unternehmen, unabhängig von ihrer Größe, verfolgen einen produktorientierten Ansatz. Anstatt Projekte zu planen, um Änderungen an ihren Anwendungen vorzunehmen, entwickeln sie ihre Software ständig weiter, ähnlich wie ein unabhängiger Softwareanbieter (Independent Software Vendor, ISV), also unabhängig davon, ob der "Kunde" der zahlende Kunde des Unternehmens ist oder eben ein interner Benutzer der Anwendung. Produkt-Roadmaps zeigen den Verlauf der neu hinzukommenden Funktionen und ihre Priorität auf, wobei die Projektmanagementmethodik auf Basis von Scrum die kontinuierliche agile Entwicklung weitestgehend abgelöst hat.

Im Fokus steht das minimal-realisierbare Produkt, das in weniger als zehn Wochen in die Produktion gebracht werden kann. In dieser produktiven Umgebung wird es dann kontinuierlich verbessert, was die cross-funktionale Zusammenarbeit in den Teams wiederum verbessert, wodurch die Fähigkeiten im Unternehmen wachsen, die dem Unternehmen konstant helfen sich und die eigenen Prozesse und Applikationen ständig und in immer kürzeren Zyklen weiter zu entwickeln. In dieser produktorientierten Welt sind CIOs jeden Tag gefordert, neue Lösungen, Produkte und Dienstleistungen zu liefern, um entweder betriebliche Verbesserungen oder Verbesserungen der Benutzerfreundlichkeit, speziell für die Endkunden zu ermöglichen. Daher ist eine zentrale, anpassungsfähige und schnell veränderbare Entwicklungsplattform ein wesentlicher Faktor.

Rapid Application Development (RAD)
Die Verwendung einer Rapid Application Development (RAD)-Plattform unterstützt die Schnelligkeit, Agilität und kontinuierliche Umsetzung des DevOps-Ansatzes. Sie hilft CIOs bei der Vereinfachung ihrer Entwicklungslandschaft, reduziert die Notwendigkeit langer Entwicklungszyklen und unterstützt die DevOps-Organisation mit einem Werkzeug, das die kontinuierliche Entwicklung, schnelle Tests und die Industrialisierung unterstützt. Die richtige Plattform für Innovation ist von entscheidender Bedeutung. Durch den kombinierten Einsatz von Microservices auf Basis einer Cloud-basierten RAD Plattform können Teams die Anforderungen in einer neuen Geschwindigkeit und Qualität umsetzen und dem Kunden eine nahtloses digitales Erlebnis bieten, welches vorher unmöglich erschien.

Microservices sind die bevorzugte Möglichkeit der IT, ihren Kunden neue komplexe Funktionen bereitzustellen. Vor allem Neuentwicklungen lassen sich dadurch noch schneller implementieren. Mit diesem Trend steigt auch die Nachfrage nach API-basierten Möglichkeiten der Integration von SaaS-Lösungen sowie die Unterstützung Container-basierter Frameworks wie Kubernetes. Die produktive Einbindung von Cloud-basierten Funktionen findet man aktuell zwar nur begrenzt im Einsatz, bei der Wahl einer passenden zentralen Entwicklungsplattform sind dies jedoch zwingende Anforderungen

Die Wahl einer passenden RAD-Plattform, welche sich an die unternehmenseigene Cloud-Strategie anpasst und zukunftsfähige API-Integration bietet, wird am Markt als Wunschlösung in Kombination mit einer wachsenden DevOps-Kultur angesehen. RAD-Plattformen müssen kostengünstige Softwareentwicklung und neue Technologien basierend auf Microservices unterstützen, sowie Tools für die kontinuierliche Verteilung und Bereitstellung der digitalen Produkte zusammenführen.

IT wird immer mehr performance-orientierter
Der Continuous-Delivery-Ansatz wird zunehmend in die Software-Entwicklung bei großen Unternehmen aufgenommen, damit Techniken, Prozesse und Tools, welche die Software-Auslieferung optimieren, auch dazu beitragen, die Unternehmensleistung und -abläufe zu verbessern. Denn zahlreiche Untersuchungen belegen mittlerweile, wie sehr IT die Performance von Unternehmen effektiv steigern kann. Ganz nach dem Motto "put IT in the drivers seat”, wird die IT also nicht mehr als reiner Kostenfaktor wahrgenommen.

Metriken werden intelligenter
"Schneller ist nicht immer besser." DevOps werden zunehmend datengetrieben. Da verstärkt Applikationen über cloudbasierte Software-as-a-Service-Modelle bereitgestellt werden, sammeln Unternehmen immer mehr Daten – und zwar nicht nur über Nutzung der Anwendungen, sondern auch über deren Bereitstellung. Sie erhalten damit wertvolle Einblicke in Sachen Delivery-Durchsatz und -Stabilität, die durch Kennzahlen wie Deployment-Häufigkeit und Vorlaufzeiten für die Umsetzung von Änderungen. Ebenso lässt sich ermitteln, wie lange die Wiederherstellung von Services und die Verbesserung von Ausfallraten dauert. Genau hier kommen künstliche Intelligenz (KI) und maschinelles Lernen (ML) ins Spiel. Durch den Einsatz von maschinellem Lernen in der Software Delivery können Unternehmen herausfinden, wo Engpässe, Hemmnisse oder Kapazitätsprobleme aktuell oder in Zukunft auftreten können. Aus diesen Informationen lassen sich vorausschauende Aussagen ableiten, um künftig die Bereitstellung effizienter zu gestalten.

Fazit: Intelligente Entwicklungsplattformen verlangen DevOps-Kultur
Im Jahr 2020 treiben digitale Anforderungen die Innovation von morgen an, und dies erfordert ein vielfältiges Set von Werkzeugen, Know-How und Frameworks für Entwickler, gepaart mit maximaler Flexibilität, um die aktuelle Welle moderner Anwendungen erfolgreich zu bewältigen. Gleichzeitig bedarf es einer zentralen Entwicklungsplattform, um die notwendige Geschwindigkeit, Qualität, Sicherheit und Wiederverwendbarkeit in den cross-funktionalen Teams sicherzustellen.

Je mehr Teams DevOps einsetzen, desto mehr Menschen beginnen, die grundlegenden Technologien und Fähigkeiten zu verstehen. Gemäß der Zwei-Pizza-Regel von Jeff Bezos: "Wenn ein Team nicht mit zwei Pizzas gefüttert werden konnte, war es zu groß", empfiehlt sich die Bildung kleinerer Teams, die sich aus verschiedenen Bereichen des Unternehmens zusammensetzen, um einen agilen Prozess innerhalb der DevOps-Umgebung zu ermöglichen. Trends zeigen, dass erfolgreiche Teams nicht nur mit den richtigen Prozessmethoden, sondern auch mit den richtigen Werkzeugen ausgestattet wurden, die es ihnen ermöglichen, mit dem Denken und der Entwicklung des Unternehmens Schritt zu halten.

Über den Autor
Für Christoph Garms liegt der Schlüssel des digitalen Wandels in den richtigen technischen Kernwerkzeugen. Nur so lässt sich ein kultureller Wandel und damit die Neuordnung der Arbeits- und Teamstrukturen vorantreiben. Seine Vision als Managing Director von Neptune Software in Deutschland ist es, die Kluft zwischen Business und IT zu überbrücken und den DACH-Markt zu einer echten digitalen Transformation zu bewegen. Mit seiner branchenübergreifenden Expertise ist sich Garms sicher, dass dies eine Frage der Digitalisierung von Prozess zu Prozess, der Schaffung einer neuen Arbeitskultur mit agilen Methoden und funktionsübergreifenden Teams ist. Denn nur auf Grundlage digitaler Produkte und Dienstleistungen lassen sich neue Geschäftsmodelle vorantreiben. Der studierte Software-Architekt legt großen Wert darauf, Partner und Kunden von der ersten Demo über die Implementierung bis hin zum Onboarding und Experten-Training zu unterstützen.
(Neptune Software: ra)

eingetragen: 07.04.20
Newsletterlauf: 26.06.20

Neptune Software: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Grundlagen

  • Durchsetzung von Cloud-Sicherheitsrichtlinien

    Cloud Computing-Services bieten Unternehmen heute eine kostengünstige und flexible Alternative zu teurer, lokal implementierter Hardware. Vorteile wie hohe Skalierbarkeit, Leistung und Effizienz sowie reduzierte Kosten liegen auf der Hand, sodass immer mehr Unternehmen ihre Anwendungen und Daten in die Cloud migrieren. Sensible Daten wie personenbezogene Informationen, Geschäftsgeheimnisse oder geistiges Eigentum sind jedoch neuen Risiken ausgesetzt. Denn in der Cloud gespeicherte Daten liegen außerhalb der Reichweite vieler lokaler Sicherheitsvorkehrungen. Unternehmen müssen deshalb zusätzliche Maßnahmen ergreifen, um ihre Daten in der Cloud, über den teils rudimentären Schutz der Anbieter hinaus, gegen Cyberangriffe und Datenlecks abzusichern. Allgemein sind Public-Cloud-Provider für die physische Sicherheit, globale und regionale Konnektivität sowie die Stromversorgung und Kühlung ihrer eigenen Rechenzentren zuständig. Dies ermöglicht Unternehmen eine flexible Skalierbarkeit und entlastet sie davon, eine eigene Infrastruktur wie ein Rechenzentrum oder Server-Hardware bereitzustellen. Zugleich liegt es in der Verantwortung der Unternehmen, all ihre in die Cloud migrierten Daten und Anwendung selbst auf gewünschte Weise zu schützen.

  • Redundante SaaS-Anwendungen ermittetteln

    Die Software-as-a-Service (SaaS)-Landschaft wächst und wächst. Wer bis jetzt noch nicht auf Wolken geht, plant in absehbarer Zeit himmelwärts zu wandern. Für den IT-Betrieb bringt die Cloud bei allen Vorteilen jedoch auch Herausforderungen mit. Das gilt insbesondere bei der Verwaltung von SaaS-Ausgaben. Auf den ersten Blick steht die Inventarisierung und Konsolidierung von SaaS mit Recht ganz unten auf der Prioritätenliste von IT-Abteilung. Bei den unzähligen täglichen Aufgaben und den Herausforderungen im Zuge der digitalen Transformation, wird das "Ausmisten" im IT-Haushalt gerne auf die lange Bank geschoben. Das kann sich auf lange Sicht jedoch zu einem kostspieligen Fehler auswachsen, denn die Ausgaben für die Cloud (22 Prozent) liegen mittlerweile nur noch knapp hinter den Ausgaben für On-Premise (23 Prozent). Dazu gehört auch Software-as-a-Service (SaaS), Infrastructure-as-a-Service (IaaS) und Platform-as-a-Service (PaaS). Über 80 Prozent der befragten Unternehmen planen die Ausgaben für SaaS und IaaS/PaaS im nächsten Jahr weiter zu erhöhen.

  • CLOUD Act auch für europäische Cloud-Provider?

    Nahezu zeitgleich mit der DSGVO ist der US-amerikanische CLOUD Act in Kraft getreten. In der Praxis geraten damit zwei Rechtsauffassungen unvereinbar miteinander in Konflikt. Nicht nur für Cloud-Anbieter, sondern auch für Unternehmen, die Cloud Computing-Anwendungen nutzen, könnte dies rechtliche Schwierigkeiten mit sich bringen. Anliegen des "Clarifying Lawful Overseas Use of Data" (CLOUD) Act ist es, die US-amerikanische Strafverfolgung zu erleichtern, indem der Zugriff auf im Ausland gespeicherte Kommunikationsdaten von Verdächtigen vereinfacht wird. Was bislang im Rahmen von Rechtshilfeabkommen zwischen den Regierungsbehörden verschiedener Länder im Laufe mehrerer Monate abgewickelt wurde, soll nun schneller möglich sein.

  • Cloud-Repatriation eine Realität

    Unternehmen nutzen vermehrt die Hybrid Cloud um Daten und Anwendungen in alle Umgebungen verschieben zu können. Dies macht das Zurückholen von Daten und Anwendungen ins eigene Rechenzentrum offiziell zu einem Trend. Noch vor wenigen Jahren glaubten wir, dass die Public Cloud die Zukunft der IT ist und früher oder später, physische Rechenzentren ersetzen würde. Tatsächlich ist der Trend Daten und Workloads in Public Clouds zu migrieren seit langem ungebrochen stark und es ist kein Ende dieser Entwicklung auszumachen. Doch trotz dieses generell anhaltenden Trends in Richtung Public Cloud ist Cloud-Repatriation, also die entgegengesetzte Entscheidung, Daten und Workloads zurück nach Hause ins eigene Rechenzentrum zu holen, in letzter Zeit zur Realität geworden. Was treibt diese Entwicklung an?

  • So hilft die KI bei der Datenanalyse

    Die Elektromobilität wird dazu führen, dass Fahrzeuge und Infrastrukturen riesige Datenströme generieren. In dieser Daten-Goldgrube verstecken sich viele Hinweise darauf, wie Unternehmen ihre Angebote und Produkte verbessern, aber auch die Kundenzufriedenheit steigern können. Wer den Datenschatz heben möchte, benötigt eine übergreifende Datenplattform und KI-Lösungen mit Maschine Learning-Komponenten. In den Medien generiert das Thema Elektromobilität derzeit interessante Schlagzeilen. Daimler kündigte an, ab 2021 mit der Produktion von autonom fahrenden Taxis zu starten. Auch Volkswagen steht unter Strom, denn die Wolfsburger wollen in den kommenden zehn Jahren 70 neue vollelektrische Elektrofahrzeuge entwickeln. Dazu meldet nun auch Lidl, dass der Lebensmitteldiscounter auf seinen Parkplätzen künftig Ladestationen für Elektrofahrzeuge installieren wird, wie es schon andere Handelsketten, beispielsweise Aldi, Rewe und Ikea, vormachen. Und im nächsten James Bond-Film wird der Superagent vermutlich mit einem Elektrofahrzeug von Aston Martin auf Gangsterjagd gehen.

  • Funktionierende DevOps-Kultur zu etablieren

    DevOps mit grundlegender IT-Modernisierung verbinden: Weitreichende Veränderungen wie die digitale Transformation oder neue Regularien wie die DSGVO wurden von vielen Unternehmen zum Anlass genommen, die eigene IT-Architektur von Grund auf zu überdenken. Die Ziele dabei waren und sind im Prinzip immer eine flexiblere IT, die schnell auf sich ändernde Umstände reagieren kann - eine der Kernkompetenzen von DevOps. Es ist also überaus sinnvoll, DevOps als eine der zentralen Säulen der neuen IT zu etablieren und sich dadurch kürzere Softwareentwicklungs- und Bereitstellungszyklen zu sichern.

  • Cloud-Big Data-Projekte: Exponentielles Wachstum

    Für IT-Verantwortliche wird es immer wichtiger, mit der Cloud den Einsatz innovativer Technologien zu unterstützen. Cloud Cpmputing-Services für Machine Learning, Künstliche Intelligenz, Blockchain oder Serverless Computing sind heute mit wenigen Mausklicks abrufbar. Damit beschleunigt sich die Umsetzung neuer Geschäftsmodelle ebenso wie die Produktentwicklung. Warum ein organisationsweites Datenmanagement für den Cloud-Erfolg wichtig ist, zeigt der folgende Beitrag. In der Studie "Multi-Cloud in deutschen Unternehmen" berichten die Analysten von IDC, dass 68 Prozent der Unternehmen bereits Cloud Computing-Services und -Technologien für mehrere Workloads verwenden.

  • Multiple Clouds nicht gleich Multi-Cloud

    Multi-Cloud ist derzeit einer der heißesten Trends für Unternehmen. Die Verwendung mehrerer Clouds gleichzeitig, kann viele Vorteile bieten. Richtig eingesetzt kann man mit der richtigen Kombination von Clouds unter anderem die Kosten für Infrastruktur senken, die Präsenz von Daten und Workloads in verschiedenen Regionen verbessern oder die Herstellerbindung an Cloud Computing-Anbieter vermeiden. Unternehmen, die den Ansatz Multi-Cloud hingegen falsch verstanden haben, kann dieses Missverständnis viel Geld kosten. Denn eine fehlgeleitete Multi-Cloud-Strategie hat das Potenzial, Anwendungen, Teams und Budgets unnötig aufzusplitten.

  • So gelingt der Umzug in die Cloud

    Geblendet von den zahlreichen Vorteilen, wollen viele Unternehmen zumindest Teile ihrer IT in die Cloud migrieren. Der Wunsch dies so schnell wie möglich zu tun ist verständlich, aber in den meisten Fällen völlig unrealistisch. Entscheidungsträger sollten neben den offensichtlichen Vorteilen auch die Zeit in Betracht ziehen, die nötig ist diese zu erreichen. Hierbei kann das Konzept Time To Value (TTV) helfen den richtigen Zeitpunkt für den Umzug zu ermitteln. Die Vorteile Cloud Computing-Technologien zu nutzen sind mittlerweile gut dokumentiert. Einer der wichtigsten ist die mit ihr verbundene Flexibilität, die es erlaubt nur für die Leistung zu bezahlen, die auch gebraucht wird. Die Entscheidung pro Cloud scheint somit auf der Hand zu liegen. Doch der Teufel steckt bekanntlich im Detail und trotz des Willens vieler Organisationen, mehr auf die Cloud zu setzen, ist ein Umzug über Nacht einfach nicht möglich sondern muss von langer Hand geplant sein.

  • Bedarf an schnellem Service-Management

    "Die Fabrik der Zukunft wird nur noch zwei Mitarbeiter haben, einen Mann und einen Hund. Der Mann ist da, um den Hund zu füttern und der Hund, um den Mann davon abzuhalten, Geräte zu berühren." Wie weit wir aktuell noch von dieser im Jahr 1990 geäußerten Vision von Warren Bennis entfernt sind, wird immer wieder versucht vorherzusagen. Schon den jetzigen technologischen Stand vor fünf Jahren präzise vorauszusehen, wäre aber nahezu unmöglich gewesen. In Bezug auf IT-Service Management (ITSM) zeichnet sich meiner Ansicht nach bereits ab, was kurz- und mittelfristig auf Unternehmen zukommen wird. Zum Beispiel werden neue Technologien wie Künstliche Intelligenz und Machine Learning noch stärker in den Mittelpunkt rücken, während eine ansprechende Benutzererfahrung und die Minimierung der Total Cost of Ownership weiterhin wichtig bleiben werden. Folgende fünf Themen sollten IT-Verantwortliche im Auge behalten und prüfen, ob ihre Service Management-Infrastruktur dafür gewappnet ist.