Sie sind hier: Startseite » Markt » Hintergrund

Neuer Trend: Serverless Computing


Mit neuer Technologie werden die Karten bei der Datenintegration neu gemischt
Serverless Computing ist ein neuartiges Software-Architekturmuster, das eine Bereitstellung und Verwaltung von Infrastrukturen überflüssig macht


Von Thomas Steinborn, VP Product Management, Talend

Die Entwicklung des Serverless-Konzeptes lässt sich mit einem Blick auf die Erfolgsgeschichte der Cloud aufzeigen. So gibt es das Cloud Computing-Konzept schon seit einiger Zeit, aber erst mit dem Aufkommen virtueller Maschinen und der Einführung von Amazon Elastic Compute wurden Cloud-Services ab 2006 wirklich für alle Unternehmen nutzbar. Im Jahr 2008 folgte Google mit der Google App Engine, 2010 kam Microsoft Azure auf den Markt. Anfangs unterschieden sich die Angebote gar nicht so sehr voneinander. Doch wie in fast jedem Markt folgte dem Wachstum rasch eine Zersplitterung. In den letzten Jahren ist der Markt für Cloud Computing so stark gewachsen, dass es sich für die Anbieter mittlerweile lohnt, spezifischere Angebote zu entwickeln, denn sie können sich darauf verlassen, einen relevanten Markt vorzufinden. Cloud-Anbieter haben bei ihren Angeboten und den darin unterstützten Funktionen wie zum Beispiel KI, Machine Learning, Streaming, Batch usw. auf eine immer stärkere Differenzierung gesetzt.

Die Cloud-Vielfalt wächst
Aufgrund der Eigenarten des Cloud Computing, der Fülle von Angeboten und der relativ niedrigen Kosten für die Services hat die Segmentierung mittlerweile ein beispielloses Niveau erreicht, denn heute können die Kunden Cloud Computing-Lösungen in einer Multi-Cloud-Umgebung einsetzen und anpassen. Daher sind Nischenanbieter, die auf die Bedürfnisse bestimmter Marktsegmente eingehen, eher selten: Zahlreiche Cloud-Anbieter sind vielmehr in der Lage, die unterschiedlichen Anforderungen derselben Kunden zu bedienen.

Der neueste Treiber dieser extremen Segmentierung ist das Serverless Computing. Serverless Computing ist ein Modell, bei dem der Cloud-Provider sozusagen als Server auftritt und die Zuteilung von Ressourcen und Nutzungszeiten dynamisch verwaltet. Der Preis richtet sich nach dem tatsächlichen Ressourcenverbrauch einer Anwendung und nicht nach vorausbezahlten Kapazitätseinheiten.

Bei diesem Modell sind Entscheidungen zur Serververwaltung und zur Kapazitätsplanung für den Nutzer transparent. Zudem kann Serverless-Code gemeinsam mit Code verwendet werden, der in Microservices eingesetzt wird.

Das Marktforschungsunternehmen Gartner sagt zu: "Serverless Computing ist ein neuartiges Software-Architekturmuster, das eine Bereitstellung und Verwaltung von Infrastrukturen überflüssig macht." Nach Ansicht von Gartner müssen IT-Führungskräfte beim Serverless Computing einen anwendungszentrischen Ansatz verfolgen. Dabei werden anstelle physischer Infrastrukturen Schnittstellen für die Anwendungsprogrammierung (APIs) und Service-Level-Agreements (SLAs) verwaltet.

Funktionen werden als Service verfügbar

Das Serverless-Konzept wird meistens mit Functions-as-a-Service (FaaS) verknüpft. FaaS eignet sich perfekt, um ereignisbasierte Echtzeitintegrationen bereitzustellen. FaaS ist ohne Containertechnologien nicht denkbar, denn Container treiben nicht nur die zugrundeliegende Funktionsinfrastruktur an, sondern sind optimal für rechenintensive Workloads mit langer Ausführungsdauer geeignet.

Das Praktische bei dem Container-Konzept ist die Tatsache, dass mehrere Big Player wie Google, AWS, Azure, RedHat und andere in enger Kooperation ein gemeinsames Containerformat erstellen. Hier liegt ein wesentlicher Unterschied etwa zu den virtuellen Maschinen vor, bei denen jeder Hersteller sein eigenes Süppchen kocht: AWS hat AMI entwickelt, VMware setzt auf VMDK, Google hat sein Google Image. Dagegen erlauben Container den IT-Architekten die Nutzung desselben Pakets für alle Plattformen. Ein solches Paket kann eine Workload mit langer Ausführungsdauer, genauso gut aber auch einen einzelnen Service enthalten.

Beschleunigte Entwicklungsarbeiten
Serverless Computing muss immer zusammen mit Continuous Integration/Continuous Delivery (CI/CD) eingesetzt werden, denn nur so können die Unternehmen die Time-to-Market verkürzen. Durch Verringerung der Entwicklungsdauer können die Unternehmen neue Produkte und Funktionen schneller liefern – in globalen Märkten ein wichtiger Vorteil. CI/CD verwaltet die zusätzliche Komplexität, die Entwickler unter Verwendung eines differenzierten Serverless-Bereitstellungsmodells administrieren.

Nach Ansicht von Talend muss das Rückgrat der Datenintegration bei Unternehmen nativ und portabel sein. Nativer Code reduziert Laufzeiten und vermeidet zusätzliche Entwicklungen. Dabei ist noch nicht einmal der Code proprietär, es gibt also keine Beschränkungen auf eine bestimmte Umgebung. Dies führt zu einem Mehr an Flexibilität, Skalierbarkeit und Leistung.

Fazit
Die Vorteile von Serverless Computing sind erhöhte Agilität, unbegrenzte Skalierbarkeit, einfachere Wartung und niedrigere Kosten. Darüber hinaus unterstützt Serverless Computing Multi-Cloud-Umgebungen und lässt das Pay-As-You-Go-Modell Wirklichkeit werden. Weiterhin fördert der Serverless-Ansatz die Nachhaltigkeit datengestützter Strategien in finanzieller Hinsicht. Und genau deswegen werden durch Serverless Computing die Karten im Bereich der Datenintegration neu gemischt. Jetzt sind die Möglichkeiten im Bereich Data-on-Demand nahezu unbegrenzt. Denn die Unternehmen entscheiden nun, wie, wo und wann sie Daten auf eine für sie wirtschaftlich sinnvolle Weise verarbeiten. (Talend: ra)

eingetragen: 29.09.18
Newsletterlauf: 26.10.18

Talend: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>



Meldungen: Hintergrund

  • Künstliche Intelligenz das Maß aller Dinge

    Ob in der Fertigung oder im Bau- und Ingenieurwesen - 2024 wird für beide Branchen eine richtungsweisende Zeit mit zahlreichen Herausforderungen und Hürden. Doch das neue Jahr birgt auch vielversprechende Trends, neue Lösungsansätze und innovative Technologien.

  • Nachhaltigkeit kommt in der Cloud an

    "IT doesn't matter" - so lautete die Überschrift eines Artikels des US-amerikanischen Wirtschaftsjournalisten Nicholas Carr im Jahr 2003. Gemeint war: IT sei ein Standardprodukt, das zwar Kosteneinsparungen bringe, aber keine Investition in die strategische Differenzierung sowie die Wettbewerbs- und Innovationsfähigkeit von Unternehmen ist.

  • Zero Day und Zero Trust sind Themen

    Cloud-Security war das wichtigste Thema der IT-Sicherheit im Jahr 2023, und sie wird auch 2024 zu Recht erhebliche Aufmerksamkeit bekommen. "Doch Cloud-Security ist nur eine Seite der Medaille", gibt Gregor Erismann, CCO der Schweizer Security-Spezialistin Exeon Analytics. zu bedenken.

  • Hohe Nachfrage nach IDP

    Retarus hat drei Trends identifiziert, welche die digitale Geschäftskommunikation 2024 nachhaltig beeinflussen werden. Insbesondere künstliche Intelligenz wird in den kommenden Monaten eine immer wichtigere Rolle spielen und es Unternehmen ermöglichen, effizienter zu arbeiten und ihre Wettbewerbsposition zu stärken.

  • Cloud-Daten-Verschlüsselung 2024

    Wie zu jedem Jahreswechsel orakeln Unternehmen, Wirtschaftsweise und weitere Fachkundige darüber, was sich im neuen Jahr ändern wird. Was sie dabei in der Vergangenheit kaum auf dem Schirm hatten: die sogenannten Black-Swan-Ereignisse, große, überraschende und einschneidende Ereignisse. Mit querliegenden Frachtern und Lieferkettenzusammenbrüchen, der Pandemie oder den Kriegen mit weitreichenden wirtschaftlichen Folgen hatte keiner wirklich gerechnet.

  • Potenzial der Daten nutzen

    Exasol hat ihre Prognosen für den Bereich Data Analytics im Jahr 2024 veröffentlicht. Disruptive Technologien wie künstliche Intelligenz (KI) setzen sich in der Tech-Branche immer weiter durch.

  • Keine Wechselflut der Cloud-Anbieter

    2024 werden viele Unternehmen realisieren, dass sie als Teil ihrer Datenstrategie ihre Hybrid-Cloud-Strategie überarbeiten müssen, um die Vorteile der künstlichen Intelligenz (KI) voll auszuschöpfen. Dies bedeutet, dass die Qualität und Zugänglichkeit von Daten auf dem Prüfstand stehen.

  • Energienutzung in Rechenzentren optimieren

    Die Europäische Kommission hat am 5. Dezember 2023 das strategische Förderprojekt IPCEI-CIS (Important Projects of Common European Interest - Next Generation Cloud Infrastructure and Services) genehmigt. Zielsetzung des Projektes ist die Entwicklung von gemeinsamen Konzepten und ein erster industrieller Einsatz für moderne Cloud- und Edge-Computing-Technologien.

  • Sieben wichtige KI-Trends für 2024

    Künstliche Intelligenz (KI) ist längst mehr als ein Hype, sie etabliert sich zunehmend als integraler Bestandteil von immer mehr Lebens- und Geschäftsbereichen. Die Experten der Inform GmbH als weltweit führender Anbieter von fortschrittlichen KI-basierten Optimierungssoftwarelösungen prognostizieren sieben entscheidende KI-Trends, die 2024 und darüber hinaus eine Vielzahl von Branchen und gesellschaftlichen Praktiken beeinflussen werden.

  • Desktop as a Service vermeidet Oversizing

    Mit der fortschreitenden Digitalisierung und dem anhaltenden Homeoffice-Trend verändern sich die Anforderungen an das IT-Service-Management. Gleichzeitig stehen die Unternehmen unter wachsendem Druck durch globale Herausforderungen wie Lieferkettenprobleme, Inflation und Rezession. Um die Produktivität ihrer IT-Abteilungen zu erhöhen, benötigen sie Lösungen, mit denen sich Prozesse optimieren lassen - auch mithilfe von künstlicher Intelligenz (KI).

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen