- Anzeige -


Sie sind hier: Startseite » Fachartikel » Grundlagen

Cloud Computing verändert Charakter der IT


Mittelfristig wird Cloud-Computing über Basisfunktionalitäten hinausgehen und auch unternehmenskritische Aufgaben übernehmen
Enterprise-Applikationen ins Cloud Computing bringen

Von Joachim Blome *

(16.03.10) - Mit Cloud Computing können Unternehmen IT-Leistungen ohne Bereitstellung eigener Ressourcen nutzen. Allerdings ist es nicht trivial, vorhandene Enterprise-Applikationen via Internet anzubieten. Neue Lösungen wie die Cloud Services von Micro Focus erlauben es, Applikationen ohne Code-Änderung ins Cloud Computing zu übertragen.

Seit Jahren stöhnen die Unternehmen unter der wachsenden Komplexität ihrer IT-Systeme. Heterogene Infrastrukturen, immer neue Gerätetypen, explodierende Datenmengen, zugleich schnell wechselnde Anforderungen und ein enger werdendes Netz von Vorschriften und Regelungen belasten die Effizienz der IT in hohem Maße. In dieser Situation kommt ein neues Paradigma für die Nutzung der IT wie gerufen: Nach dem in den 60er- und 70er-Jahren entstandenen Großrechnerbetrieb, dem Aufbau unternehmenseigener Rechenzentren in den 80er und 90er Jahren und dem Outsourcing der Jahrtausendwende ist mit Cloud Computing gerade eine neue Art der IT-Nutzung dabei, sich zu etablieren.

Cloud Computing erlaubt es Unternehmen, via Web auf externe IT-Ressourcen, wie Speicherplatz, Rechenzeit, Datensicherung, Applikationen und IT-Dienstleistungen zuzugreifen. Sie müssen dabei keine eigenen Kapazitäten aufbauen und vorhalten, sondern können die benötigten Leistungen zu genau definierten Kosten nutzen. Die Abgrenzung zwischen Cloud Computing und Software-as-a-Service (SaaS) ist dabei nicht immer einheitlich; üblicherweise werden beim Cloud Computing die Ressourcen in den Mittelpunkt gestellt, wie beispielsweise bei Amazon Elastic Compute oder demnächst bei Microsoft Azure.

Bei SaaS, als Untermenge des Cloud-Computing, geht es dagegen mehr um die als Service angebotenen Funktionalitäten von Applikationen, beispielsweise für CRM oder Web-Konferenzen. Infrastruktur-Services lassen sich in dieser Sicht ebenfalls als Untermenge des Cloud Computing unter Plattform-as-a-Service (PaaS) erfassen.

Gleich auf welche Weise Cloud Computing verwendet wird, für Unternehmen, die es nutzen, liegen die Vorteile auf der Hand: Sie müssen keine Investitionen vornehmen, es werden daher weder Kapital oder Kreditlinien noch Liquidität gebunden. Da die Abrechnung nutzungsorientiert erfolgt – "pay-as-you-use" –, sind die Kosten einigermaßen genau kalkulierbar.

Es ist kein Administrations-, Implementierungs- oder Konfigurationsaufwand erforderlich und es muss auch kein entsprechendes Know-how aufgebaut werden. Die Anwender erhalten vom Provider ein komplettes Dienstleistungspaket mit Bereitstellung, Betrieb und Wartung. Schließlich sind derartige Lösungen sehr gut skalierbar, dafür genügt in der Regel ein Anruf beim Provider – gerade in Zeiten mit unsicherer wirtschaftlicher Entwicklung ein nicht zu unterschätzender Vorteil. Aber auch Unternehmen mit stark ausgeprägter saisonaler Beanspruchung der IT, beispielsweise im Weihnachtsgeschäft, können so hohe Flexibilität bei überschaubarem Aufwand erreichen.

Sicher werden die meisten Unternehmen nicht zu Gunsten des Cloud Computing ganz auf ihre IT verzichten wollen, schließlich ist die IT auch ein Wettbewerbsfaktor, zumindest sollte sie das sein. Aber in der IT laufen heute nicht nur wettbewerbsrelevante Prozesse, sondern darüber hinaus viele alltägliche, die heute keinem Unternehmen mehr einen USP verschaffen. Wettbewerbsneutrale Aufgaben wie E-Mail-Management, Spam-Filter, Web-Conferencing oder Gehaltsabrechung erledigen Spezialisten einfach besser. Und für viele Aufgaben lohnt es sich nicht, eigene Ressourcen aufzubauen und zu unterhalten, beispielsweise Rechenkapazitäten für Spitzenzeiten oder auch IT-Systeme für Schulungen.

Mittelfristig wird Cloud-Computing aber über Basisfunktionalitäten hinausgehen und durchaus auch unternehmenskritische Aufgaben übernehmen. Derzeit liegt die garantierte Verfügbarkeit im Cloud Computing allerdings noch deutlich unter dem Niveau, das für solche Anwendungen auf eigenen Systemen üblich ist.
Neuer Markt für ISVs

Cloud Computing ist jedoch nicht nur für Nutzer interessant, sondern auch für Anbieter. So finden ISVs hier eine Plattform, über die sie für ihre Applikationen neue Märkte erschließen können, indem sie ihren Kunden Implementierung, Betrieb, Infrastrukturinvestitionen usw. ersparen können, eben alles, was heute unter dem Damoklesschwert der wachsenden Komplexität steht. Die Anbieter können die Applikationen dabei auf eigenen Servern zur Verfügung stellen, sie können aber auch auf die Cloud Computing-Angebote großer Provider zurückgreifen, beispielsweise auf Amazon oder Microsoft.

Die Verlagerung von Anwendungen ins Cloud Computing ist allerdings nicht trivial. Was der Nutzer an Komplexität spart, muss notwendigerweise der Provider abfangen; für ihn stellt Cloud Computing daher eine nicht unerhebliche Herausforderung dar. In der Regel erfüllen nämlich die vorhandenen Applikationen nicht die Voraussetzungen der Cloud-Plattformen. Meist handelt es sich dabei ja um klassische Enterprise-Applikationen auf Cobol-Basis deren Programm-Philosophie und Struktur sich grundlegend von dem unterscheidet, was beim Cloud-Computing üblicherweise eingesetzt wird.

Hier werden beispielsweise Programmiersprachen wie "Python", für Google Apps, oder "Ruby", für Amazon Elastic Compute Cloud, verwendet. Dies gilt ebenso für Microsofts Cloud-Plattform Azure, denn die Azure-APIs, wie etwa die Identity Services oder SQL Data Services, sind ganz verschieden vom Standard-.NET. Kein ISV kann jedoch heute seine Anwendungen für das Cloud Computing einfach neu schreiben. Für einen derartigen kompletten Neustart stehen weder Budget noch Zeit zur Verfügung. Dabei stellen Neuentwicklungen immer ein Risiko dar, weil ausgereifte Algorithmen und Prozesse durch neue ersetzt werden, die sich erst noch bewähren müssen.

Außerdem würden Neuentwicklungen die Softwareentwicklung langfristig blockieren. Gerade vor dem Hintergrund der aktuellen Wirtschaftslage wollen und können viele Softwareanbieter derartige Risiken nicht eingehen. Sie können ins Cloud Computing nur dann einsteigen, wenn sich die Projekte in einem überschaubaren Zeit- und Kostenrahmen realisieren lassen.

Enterprise-Applikationen "Cloud-fähig" machen
Die Anbieter müssen daher ihre bestehenden Enterprise-Applikationen "Cloud-fähig" machen, auch wenn diese unter "traditionellen" Software-Paradigmen beispielsweise mit Cobol oder PL1 erstellt wurden. Anders ließe sich ein Einstieg ins Cloud Computing beziehungsweise PaaS für die meisten Unternehmen jedoch nicht wirtschaftlich darstellen. Am besten ist es natürlich, die Applikationen so anzupassen, dass ein und dieselbe Code-Basis für unterschiedliche Betriebsarten verwendet werden kann, also sowohl für den On-Demand im Cloud, als auch für On-Premise auf den eigenen Servern beziehungsweise im eigenen Rechenzentrum.

Dabei müssen so unterschiedliche klassische Technologien wie Cobol, CICS, IMS, JES/JCL, VSAM KSDS, ESDS oder RRDS auf der einen Seite, mit den Techniken der Web-Welt wie HTTP, HTTPS, SOAP, XML, AJAX, JavaScript oder XBAP verbunden werden.

Mittlerweile sind Werkzeuge verfügbar, die diese Arbeiten wesentlich erleichtern.

Nicht vergessen werden sollte, dass Cloud Computing auch erhöhte Anforderungen an die Netzinfrastruktur stellt: Großzügige Bandbreiten sind hier für Nutzer und insbesondere für Anbieter eine unverzichtbare Voraussetzung, um eine akzeptable Verfügbarkeit zu erreichen. Dies ist derzeit auch die Achillesferse von Cloud-Angeboten, denn garantierte Verfügbarkeiten von 99,9 Prozent reichen für unternehmenskritische Anwendungen bei weitem nicht aus.

Die großen Enterprise-Applikationen der Unternehmen führen heute 70 bis 80 Prozent aller Geschäftstransaktionen durch – in absoluten Zahlen sind das etwa 30 Milliarden pro Tag. Auch eine nur zum Teil erfolgende Verlagerung dieser Transaktionen von den eigenen Rechenzentren der Unternehmen ins Cloud Computing, wird den Charakter der IT fundamental verändern. Durch Economies of Scale, durch optimierte Prozesse bei Spezialisten, durch flexiblere Skalierung oder einfach durch den Wegfall von Vorausinvestitionen können in großem Umfang Mittel frei werden, die bisher allein für die Aufrechterhaltung des IT-Betriebs eingesetzt werden müssen. Damit kann die IT auch wieder in die Lage versetzt werden, neue, innovative Wege zu beschreiten und einen größeren Beitrag zum Unternehmenswachstum zu leisten. (Micro Focus: ra)

* Joachim Blome ist Senior Solution Architect bei Micro Focus

Micro Focus: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Grundlagen

  • Das lebende Unternehmen

    Der menschliche Körper ist ein bemerkenswerter Organismus. Ohne hier zu tief in Anatomie und Physiologie des Menschen einzutauchen, gibt es zahlreiche Bereiche, in denen sich der Mensch und die Datenverarbeitung eines Unternehmens stark ähneln. Zwar sind die Systeme des Menschen nicht digital sondern organisch, das Gesamtsystem Mensch funktioniert jedoch ganz ähnlich wie eine Organisation - eine große Anzahl an Informationssystemen laufen parallel und transportieren eine Fülle von Informationen zu jedem Organ. Wenig überraschend, ist der Mensch der IT in Sachen Datenverarbeitung nach vielen Millionen Jahren Evolution um einiges voraus. So funktioniert die Datenverarbeitung des Menschen in den meisten Fällen nicht nur in Echtzeit, sondern auch komplett automatisiert. Hier können Unternehmen ansetzen, um vom Menschen zu lernen und ihre IT in Zeiten der Digitalisierung leistungsfähiger zu machen.

  • Security und Leistung in der Cloud vereinen

    Moderne Anwendungen müssen skalieren und performant sein. Um diese Anforderungen zu erreichen, werden viele Implementierungen auf Public Cloud-Plattformen wie Amazon Web Services (AWS), Microsoft Azure und Google Cloud Platform (GCP) gehostet, was für Elastizität und Geschwindigkeit sorgt. Und die Cloud-Nutzung boomt, mittlerweile setzen zwei von drei Unternehmen in Deutschland Cloud Computing ein, so das Ergebnis einer repräsentativen Umfrage von Bitkom Research im Auftrag der KPMG. Vorteile wie hohe Flexibilität, Effizienzsteigerung der Betriebsabläufe und verbrauchsabhängige Abrechnung von Services liegen auf der Hand.

  • Es ist an der Zeit, die Cloud zu dezentralisieren

    Heute beheimatet die Erde 206 souveräne Staaten. Souveränität ist, wie uns das Lexikon erklärt, das "volle Recht und die Macht eines Regierungsorgans über sich selbst, ohne Einmischung von außen". In gewisser Weise hat die in den frühen 2000er Jahren eingeführte Public Cloud die Souveränität vieler Staaten in Frage gestellt: Sie zentralisierte Daten- und Cloud Computing-Services auf sehr effiziente Weise, um Kunden in jeder Ecke der Welt zu bedienen - eine Welt ohne Grenzen. Verbraucher und Unternehmen begrüßten das befreiende Konzept, das sich schnell weiterentwickelte.

  • Cloud-Sicherheit & Shared Responsibility-Modell

    Viele Unternehmen setzen auf eine Kombination verschiedener Backup-Lösungen, häufig über mehrere Standorte hinweg. Im Krisenfall macht es solch eine Strategie jedoch oft schwierig, Dateien zeitnah wiederherzustellen. Dagegen bieten Cloud-integrierte Lösungen einfaches Testen der Disaster-Recovery-Strategie und im Notfall die rasche Rückkehr zum Normalbetrieb. Daten sind für Unternehmen heute wertvolle Rohstoffe und müssen besser gesichert werden als je zuvor. Gerade in Zeiten weltweiter Ransomware-Attacken ist eine profunde Backup- und Disaster Recovery-Strategie daher unabdingbar geworden, um im Krisenfall sofort reagieren zu können und die Geschäftskontinuität zu sichern. Doch bei der Disaster Recovery geht es nicht nur um Ransomware-Bedrohungen und Advanced Threats, sondern ebenso um die Wiederherstellung nach Hardware-Ausfällen von IT-Komponenten wie Servern und Storage-Systemen, aufgrund menschlicher Fehler oder einer Naturkatastrophe.

  • Wächter des Cloud-Datenschatzes

    Im Zuge der Digitalisierung wächst die Datenmenge, die Unternehmen täglich verarbeiten, stetig an. Dies spiegelt sich auch in der gestiegenen Nutzung von Cloud Computing-Anwendungen in den vergangenen Jahren wider. Unternehmensdaten sind rund um die Uhr überall zugänglich, ermöglichen effiziente Arbeitsabläufe und - zumindest auf den ersten Blick - etwas weniger Verwaltungsaufwand für die IT-Abteilung. Dieser Effekt relativiert sich jedoch, wenn man die Cloud Computing-Nutzung unter dem Aspekt der Sicherheit betrachtet. Die damit einhergehenden Risiken und neuen Bedrohungen erfordern fortschrittliche Sicherheitstechnologien, um den Schutz von Unternehmensdaten gewährleisten zu können.

  • Cloud-Sicherheit: Shared Responsibility-Modell

    Viele Unternehmen setzen auf eine Kombination verschiedener Backup-Lösungen, häufig über mehrere Standorte hinweg. Im Krisenfall macht es solch eine Strategie jedoch oft schwierig, Dateien zeitnah wiederherzustellen. Dagegen bieten Cloud-integrierte Lösungen einfaches Testen der Disaster-Recovery-Strategie und im Notfall die rasche Rückkehr zum Normalbetrieb. Daten sind für Unternehmen heute wertvolle Rohstoffe und müssen besser gesichert werden als je zuvor. Gerade in Zeiten weltweiter Ransomware-Attacken ist eine profunde Backup- und Disaster Recovery-Strategie daher unabdingbar geworden, um im Krisenfall sofort reagieren zu können und die Geschäftskontinuität zu sichern.

  • DevOps: Eine Gefahr oder die Zukunft für ITSM?

    Der digitale Wandel beeinflusst die Unternehmenslandschaft stark. Auch im IT-Service-Management stehen Entscheider zahlreichen neuen Herausforderungen gegenüber. Die Verzahnung von Entwicklung und Betrieb, auch Development and Operations, kurz DevOps, spielt eine immer größere Rolle. Häufig stellen sich die Verantwortlichen jedoch eine Frage: Ist DevOps eine Gefahr oder die Zukunft des IT-Service-Managements (ITSM)? Zu den Ursachen für etwaige Bedenken zählt unter anderem die Infragestellung der Stabilität des IT-Betriebes. Angebote aus der Cloud werden mit einem Angriff auf die eigene IT gleichgesetzt und gestandene ITIL-Change-Manager können sich eine weitere Verkürzung und Vereinfachung der Prozesse nicht mehr vorstellen. Dabei lässt sich bei Betrachtung des Bereichs "Entwicklung und Betrieb von Applikationen" feststellen, dass es zahlreiche Gründe gibt, sich mit den Inhalten von DevOps zu befassen. Veränderungen im IT-Service-Management stellen dabei stets eine Notwendigkeit dar.

  • Das WAN weicht in die Wolke

    Unternehmen als abgeschlossene Einheiten sind passé. Neue Arbeitskonzepte wie mobiles Arbeiten oder BYOD lassen Mauern bröckeln - gerade auch im Hinblick auf Unternehmensnetzwerke. Unternehmen mit Niederlassungen oder Filialen im Handel müssen neben stationärer IT wie Kassensystemen auch mobile oder temporäre Geräte ins Netzwerk einbinden, zum Beispiel Digital-Signage-Terminals. Und Kunden setzen meist ein offenes WLAN voraus. Die digitale Transformation stellt neue Herausforderungen an das vormals Hardware-orientierte Wide-Area-Network (WAN)-Management. Software- und Cloud-definierte Ansätze erleichtern die Administration bei gleichzeitig hohen Sicherheitsstandards.

  • DevOps gegen IT-Operations

    Ein IT-Infrastrukturteam hat es heutzutage nicht leicht. Einerseits muss es den Betrieb des herkömmlichen Rechenzentrums aufrechterhalten, gleichzeitig soll es die strategische Digitalisierung des Unternehmens vorantreiben. Als wenn das nicht schon Herausforderung genug wäre, sollen die IT-ler zusätzlich komplett neue Technologien bereitstellen, um die neuen DevOps-Kollegen bestmöglich bei Neuerungen und schnelleren Release-Zyklen zu unterstützen. Anforderungen von DevOps an eine flexible und automatisierte Unternehmensinfrastruktur sind nicht immer einfach zu erfüllen und so wird der Trend zu DevOps für Infrastrukturteams eine zusätzliche Belastung. Prallen doch die unterschiedlichen Welten der IT-Operations und des DevOps-Teams aufeinander.

  • Automatisierte Speicherrichtlinien & Daten-GPS

    Die Globalisierung hat die Welt schrumpfen lassen. Nicht nur Reisende ziehen heute rund um den Globus, auch Daten sind dank Cloud Computing äußerst mobil und werden von Unternehmen aus den unterschiedlichsten Gründen zwischen Rechenzentren verschoben. Wir Menschen fühlen uns im eigenen Zuhause am sichersten. Auch für Unternehmensdaten gilt, dass das Risiko sie bei der Migration über Ländergrenzen hinweg zu verlieren, natürlich steigt. Als Mensch ist es heute mittels GPS sehr einfach, einen Standort zu bestimmen. Damit auch Unternehmen immer genau wissen, wo ihre Daten physisch gespeichert sind, bieten sich dank automatisierten Speicherrichtlinien und einem Daten-GPS neue Methoden, den exakten Standort von Daten festzulegen.