- Anzeige -


Sie sind hier: Startseite » Fachartikel » Grundlagen

Cloud Computing: Fortführung der Grid-Idee


Cloud Computing setzt neue Maßstäbe: Google könnte die Telekommunikation und Informationstechnik umpflügen
"Software aus der Wolke" wird den Einsatz von IT-Anwendungen in den nächsten Jahren verändern

(10.02.09) - Im Softwaremarkt zählt "Cloud Computing" zu den beherrschenden Trendthemen. Was in den Neunzigern als Application Service Providing (ASP) startete, wird heute unter dem Begriff "Cloud" für online genutzte Software aufgewärmt. Dem Nutzer, egal ob Geschäftskunde oder Konsument, reicht zum Arbeiten ein leistungsschwächerer Computer mit Internetanschluss.

Sämtliche Softwareanwendungen, Prozessorleistung und sogar der Speicherplatz wird von einem Dienstleister über das Netz angeboten, gepflegt und gesichert: "Alle IT-Größen reagieren auf die steigende Nachfrage und tüfteln bereits an tragfähigen Konzepten. Der Hardware-Riese Hewlett-Packard leistete sich einen 13 Milliarden Dollar schweren Einstieg beim IT-Infrastrukturspezialisten EDS, und Microsofts Chef Steve Ballmer will sein weltweites Rechnernetz für den Aufbau einer ‚Windows Cloud’ nutzen", berichtet das Fachmagazin absatzwirtschaft in der Februar-Ausgabe.

Amazon mit "Elastic Compute Cloud" und Google mit "Google Apps" seien etwas weiter. Der Amazon-Service biete Rechenleistung für webbasierte Applikationen, während der Suchmaschinenriese gleich ganze Anwendungen wie Textverarbeitung, Präsentations-Software und Tabellenkalkulation, E-Mail-Dienste und Sicherheitslösungen ins Netz gestellt hat.

"Experten sind sich sicher, dass die 'Software aus der Wolke' den Einsatz von IT-Anwendungen in den nächsten Jahren verändern wird. Verbrauchs- oder nutzerbasierte Geschäftsmodelle der Netzprogramme gefährden die Zukunft der etablierten Lizenzmodelle im Softwaregeschäft. Denn wo der Nutzer die Software nicht mehr auf seinem Rechner betreiben muss, bezahlt er beim Kauf der Hardware auch nicht mehr für deren Nutzung mit", so die absatzwirtschaft.

Bei der heutigen Konstellation würde der Branchenprimus Microsoft am meisten profitieren. Da die Bereitstellung von Applikationen und Dienstleistungen über das Internet erfolge, müssten auch die Geschäftsmodelle bereits auf dem Desktop der Kunden beginnen. "Mit seinem Explorer ist Microsoft bei mehr als 80 Prozent aller privaten Nutzer erste Wahl und hätte Macht über die Lesezeichen im Browser, so genannte Bookmarks. Wer dort per Schnellauswahl hinterlegt ist, der macht recht sicher das Geschäft", führt die Düsseldorfer Marketing-Zeitschrift weiter aus. Wie stark sich Cloud Computing am Ende durchsetzen wird, ist noch offen. "

Es gibt komplett gegenläufige Trends zu großen, mächtigen Computerzentren und damit auch zu Anbietern der Leistungserbringer. Open Source etwa, wo zunehmend auch viele große Unternehmen auf freier, unter der Open Source-Lizenz veröffentlichter Software aufsetzen und diese für ihre Modifikationen und Erweiterungen benutzen", erklärt Aastra-Deutschlandchef Andreas Latzel.

Cloud Computing sei nach Ansicht des cioforums-Sprecher Andreas Rebetky nicht neu, und vielleicht eher als Fortführung des Grid-Gedankens vor zehn Jahren zu sehen, nämlich der Nutzung der Netzwerk-Ressourcen, Computing aus der Steckdose oder ASP Modelle. "Die Realität ist jedoch anders: Die Performance ist durch die Komplexität der Applikationen limitiert", so die Bedenken von Rebetzky, CIO des Technologiespezialisten Bizerba. Sie leide immer unter dem schwächsten Glied in der Kette. "Und das wechselt ab und an die Lager: Heute die CPU, morgen das I/O Verhalten und dann vielleicht die Netzperformance. Wir sollten auf den Boden der Realität zurückkommen und die verfügbaren Technologien wertsteigernd einsetzen – anstatt mit Schlagworten den Nebel zu verdichten", fordert der Bizerba-Manager.

Eine Abrundung des Produktportfolios erwartet die absatzwirtschaft bei Google. Der Internet-Gigant habe seinen eigenen Browser namens "Chrome" entwickelt und eroberte schon mit der Beta-Version innerhalb weniger Wochen beachtliche Marktanteile. Wenn Chrome weit genug verbreitet sei, könnte sich Google neben Suchmaschinendiensten als Anbieter von On-Demand-Lösungen positionieren. Capgemini, General Electric und L'Oreal sollen schon Kunden von Google Apps sein. "Google denkt noch weiter: Weil der Explorer so fest in das alles beherrschende Betriebssystem Windows eingebunden ist, machen sich Konsumenten nicht viel Mühe und nutzen ihn mit. Google will auch das ändern und kommt mit 'Spon', einem heute schon Mythen umrankten Betriebssystem. Es kombiniert Cloud Computing mit der Rechenpower des heimischen Rechners und soll anspruchsvolle Anwendungen im Netz erst möglich machen", prognostiziert die absatzwirtschaft.

Eine noch stärkere Google-Expansion prognostiziert die Zeitschrift PC-Praxis. Im Sonderheft "Google Praxis" spekuliert sie über eine Ausweitung des Suchmaschinen-Anbieter in die Telekommunikation: "Ähnlich wie mit Google Mail, das als zentrales Bindeglied zwischen allen weiteren Google-Diensten fungiert, könnte die Übernahme von GrandCentrals auf eine kommende Ausrichtung auf den Kommunikationsmarkt hindeuten. GrandCentrals verspricht dem Kunden eine einzige Telefonnummer für das gesamte Leben – für alle Telefone".

Forciert werden auch die Übernahmen im Mobilfunk. So solle der Spracherkennungsspezialist und frühere Microsoft-Manager Kai-Fu Lee die Bestrebungen vorantreiben, die Suchmaschine auch über das Mobiltelefon per Sprache befragen zu können. SemanticEdge-Chef Lupo Pape rechnet schon seit langem damit, dass Google mit der Sprachsteuerung aus dem Handy eine Steuerzentrale für Online-Inhalte machen will und damit eine komfortable Mensch-Maschine-Schnittstelle für den Massenmarkt etabliert. "Sprachdialogsysteme sind ein wichtiger Baustein für das Super-Handy der Zukunft", so Pape.

Waren vor ein paar Jahrzehnten noch Hardwarehersteller wie IBM und Sun die beherrschenden Größen im Markt, wurden sie in den Neunzigern vom Softwarehersteller Microsoft überholt. Jetzt werde Google den Takt vorgeben und eine neue Ära begründen, da sind sich die Autoren von absatzwirtschaft und PC-Praxis einig: "Google beherrscht den Markt von Suchmaschinen, Geosoftware und sozialen Netzen immer stärker", sagt Professor Max Mühlhäuser von der TU Darmstadt: "Nun kommt der Angriff auf die Browser, und der Angriff auf Betriebssysteme und Standardsoftware sowie Mobiltelefone ist schon 'eingebaut'." Google sei das Unternehmen, welches nicht nur neue Maßstäbe in der Weiterentwicklung seines Produktportfolios und in dessen Vermarktung setze, sondern dank von Suchmaschinen wie Youtube und Co. auch am stärksten von den aktuellen Werbetrends profitiere. (NeueNachricht: ra)

NeueNachricht: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Grundlagen

  • Es ist an der Zeit, die Cloud zu dezentralisieren

    Heute beheimatet die Erde 206 souveräne Staaten. Souveränität ist, wie uns das Lexikon erklärt, das "volle Recht und die Macht eines Regierungsorgans über sich selbst, ohne Einmischung von außen". In gewisser Weise hat die in den frühen 2000er Jahren eingeführte Public Cloud die Souveränität vieler Staaten in Frage gestellt: Sie zentralisierte Daten- und Cloud Computing-Services auf sehr effiziente Weise, um Kunden in jeder Ecke der Welt zu bedienen - eine Welt ohne Grenzen. Verbraucher und Unternehmen begrüßten das befreiende Konzept, das sich schnell weiterentwickelte.

  • Cloud-Sicherheit & Shared Responsibility-Modell

    Viele Unternehmen setzen auf eine Kombination verschiedener Backup-Lösungen, häufig über mehrere Standorte hinweg. Im Krisenfall macht es solch eine Strategie jedoch oft schwierig, Dateien zeitnah wiederherzustellen. Dagegen bieten Cloud-integrierte Lösungen einfaches Testen der Disaster-Recovery-Strategie und im Notfall die rasche Rückkehr zum Normalbetrieb. Daten sind für Unternehmen heute wertvolle Rohstoffe und müssen besser gesichert werden als je zuvor. Gerade in Zeiten weltweiter Ransomware-Attacken ist eine profunde Backup- und Disaster Recovery-Strategie daher unabdingbar geworden, um im Krisenfall sofort reagieren zu können und die Geschäftskontinuität zu sichern. Doch bei der Disaster Recovery geht es nicht nur um Ransomware-Bedrohungen und Advanced Threats, sondern ebenso um die Wiederherstellung nach Hardware-Ausfällen von IT-Komponenten wie Servern und Storage-Systemen, aufgrund menschlicher Fehler oder einer Naturkatastrophe.

  • Wächter des Cloud-Datenschatzes

    Im Zuge der Digitalisierung wächst die Datenmenge, die Unternehmen täglich verarbeiten, stetig an. Dies spiegelt sich auch in der gestiegenen Nutzung von Cloud Computing-Anwendungen in den vergangenen Jahren wider. Unternehmensdaten sind rund um die Uhr überall zugänglich, ermöglichen effiziente Arbeitsabläufe und - zumindest auf den ersten Blick - etwas weniger Verwaltungsaufwand für die IT-Abteilung. Dieser Effekt relativiert sich jedoch, wenn man die Cloud Computing-Nutzung unter dem Aspekt der Sicherheit betrachtet. Die damit einhergehenden Risiken und neuen Bedrohungen erfordern fortschrittliche Sicherheitstechnologien, um den Schutz von Unternehmensdaten gewährleisten zu können.

  • Cloud-Sicherheit: Shared Responsibility-Modell

    Viele Unternehmen setzen auf eine Kombination verschiedener Backup-Lösungen, häufig über mehrere Standorte hinweg. Im Krisenfall macht es solch eine Strategie jedoch oft schwierig, Dateien zeitnah wiederherzustellen. Dagegen bieten Cloud-integrierte Lösungen einfaches Testen der Disaster-Recovery-Strategie und im Notfall die rasche Rückkehr zum Normalbetrieb. Daten sind für Unternehmen heute wertvolle Rohstoffe und müssen besser gesichert werden als je zuvor. Gerade in Zeiten weltweiter Ransomware-Attacken ist eine profunde Backup- und Disaster Recovery-Strategie daher unabdingbar geworden, um im Krisenfall sofort reagieren zu können und die Geschäftskontinuität zu sichern.

  • DevOps: Eine Gefahr oder die Zukunft für ITSM?

    Der digitale Wandel beeinflusst die Unternehmenslandschaft stark. Auch im IT-Service-Management stehen Entscheider zahlreichen neuen Herausforderungen gegenüber. Die Verzahnung von Entwicklung und Betrieb, auch Development and Operations, kurz DevOps, spielt eine immer größere Rolle. Häufig stellen sich die Verantwortlichen jedoch eine Frage: Ist DevOps eine Gefahr oder die Zukunft des IT-Service-Managements (ITSM)? Zu den Ursachen für etwaige Bedenken zählt unter anderem die Infragestellung der Stabilität des IT-Betriebes. Angebote aus der Cloud werden mit einem Angriff auf die eigene IT gleichgesetzt und gestandene ITIL-Change-Manager können sich eine weitere Verkürzung und Vereinfachung der Prozesse nicht mehr vorstellen. Dabei lässt sich bei Betrachtung des Bereichs "Entwicklung und Betrieb von Applikationen" feststellen, dass es zahlreiche Gründe gibt, sich mit den Inhalten von DevOps zu befassen. Veränderungen im IT-Service-Management stellen dabei stets eine Notwendigkeit dar.

  • Das WAN weicht in die Wolke

    Unternehmen als abgeschlossene Einheiten sind passé. Neue Arbeitskonzepte wie mobiles Arbeiten oder BYOD lassen Mauern bröckeln - gerade auch im Hinblick auf Unternehmensnetzwerke. Unternehmen mit Niederlassungen oder Filialen im Handel müssen neben stationärer IT wie Kassensystemen auch mobile oder temporäre Geräte ins Netzwerk einbinden, zum Beispiel Digital-Signage-Terminals. Und Kunden setzen meist ein offenes WLAN voraus. Die digitale Transformation stellt neue Herausforderungen an das vormals Hardware-orientierte Wide-Area-Network (WAN)-Management. Software- und Cloud-definierte Ansätze erleichtern die Administration bei gleichzeitig hohen Sicherheitsstandards.

  • DevOps gegen IT-Operations

    Ein IT-Infrastrukturteam hat es heutzutage nicht leicht. Einerseits muss es den Betrieb des herkömmlichen Rechenzentrums aufrechterhalten, gleichzeitig soll es die strategische Digitalisierung des Unternehmens vorantreiben. Als wenn das nicht schon Herausforderung genug wäre, sollen die IT-ler zusätzlich komplett neue Technologien bereitstellen, um die neuen DevOps-Kollegen bestmöglich bei Neuerungen und schnelleren Release-Zyklen zu unterstützen. Anforderungen von DevOps an eine flexible und automatisierte Unternehmensinfrastruktur sind nicht immer einfach zu erfüllen und so wird der Trend zu DevOps für Infrastrukturteams eine zusätzliche Belastung. Prallen doch die unterschiedlichen Welten der IT-Operations und des DevOps-Teams aufeinander.

  • Automatisierte Speicherrichtlinien & Daten-GPS

    Die Globalisierung hat die Welt schrumpfen lassen. Nicht nur Reisende ziehen heute rund um den Globus, auch Daten sind dank Cloud Computing äußerst mobil und werden von Unternehmen aus den unterschiedlichsten Gründen zwischen Rechenzentren verschoben. Wir Menschen fühlen uns im eigenen Zuhause am sichersten. Auch für Unternehmensdaten gilt, dass das Risiko sie bei der Migration über Ländergrenzen hinweg zu verlieren, natürlich steigt. Als Mensch ist es heute mittels GPS sehr einfach, einen Standort zu bestimmen. Damit auch Unternehmen immer genau wissen, wo ihre Daten physisch gespeichert sind, bieten sich dank automatisierten Speicherrichtlinien und einem Daten-GPS neue Methoden, den exakten Standort von Daten festzulegen.

  • Mit SaaS & HaaS die IT-Abteilung entlasten

    In vielen Unternehmen stehen CIOs vor der Aufgabe, mit einer sich rasch entwickelnden IT-Welt Schritt halten zu müssen. Hinzu kommt, geeignetes Personal mit dem entsprechenden Know-how zu finden und sich stets gegen zunehmende Sicherheitsrisiken zu wappnen. Diese Herausforderungen beanspruchen zeitliche und finanzielle Ressourcen in der IT-Abteilung, die Unternehmen an anderer Stelle dringender bräuchten. Im Rahmen von Managed Services wie Software-as-a-Service (SaaS) und Hardware-as-a-Service (HaaS) werden Standardaufgaben an externe Dienstleister ausgelagert. Das schafft Freiräume und entlastet die IT-Abteilung. Welche Fragen sind relevant, um zu erkennen, ob auch das eigene Unternehmen von Managed Services profitieren kann.

  • Die Zukunft des File Sharing

    Um den Austausch von Forschungsdaten zwischen verschiedenen Teams am CERN zu ermöglichen, erfand Tim Berners-Lee in den achtziger Jahren, als Nebenprodukt sozusagen, das Internet. Heute ist das Internet die tragende Säule der weltweiten Kommunikation und aus unserem digitalen Leben nicht mehr wegzudenken. Überraschenderweise hat sich seit den frühen Tagen des Internets kaum etwas verändert: Nach wie vor werden für die Übermittlung von Dateien Protokolle aus den Anfangstagen des Internets genutzt. Zum damaligen Zeitpunkt war jedoch eine Welt, in der Datenmengen exponentiell wachsen, Hacker an allerlei Daten interessiert sind und Organisationen in denen zehntausende Mitarbeiter täglich millionenfach Dateien teilen, noch nicht vorstellbar. Worauf sollten Unternehmen also achten, wenn sie eine zukunftssichere File Sharing-Lösung nutzen möchten? Und welche neuen Technologien halten Einzug um Filesharing sicherer, komfortabler und schneller zu machen?