- Anzeige -


Sie sind hier: Startseite » Markt » Tipps und Hinweise

Fünf Mythen über den Cloud-Einsatz


Die Public Cloud kann erhebliche Einsparungen gegenüber der klassischen Infrastruktur bieten, wenn sie für die entsprechenden Workloads genutzt wird
Die Private Cloud kann sich bei vielen anderen Workloads als wirtschaftlicher erweisen

- Anzeigen -





Wenn Menschen mit Komplexität und Unsicherheit konfrontiert werden, erschaffen sie Mythen, die ihnen helfen, damit umzugehen. Diese Tendenz zeigt sich seit der Zeit der griechischen Ependichter bis heute – und lässt sich auch mit Blick auf den sich schnell verändernden Marktplatz für Cloud Computing-Lösungen und die damit verbundenen Komplikationen der modernen IT beobachten. Aus der täglichen Zusammenarbeit mit Unternehmen heraus, hat Rackspace die fünf häufigsten Missverständnisse zum Cloud Computing-Einsatz zusammengestellt – zusammen mit den Fakten, wie sie von smarten Cloud Computing-Anwendern verstanden werden.

Mythos 1: Der Umzug in die Cloud mündet automatisch in der Public Cloud
Die Fakten: Einige Anbieter bieten nur Public Cloud-Lösungen an und argumentieren, dass diese alle Anforderungen eines Unternehmens abdecken. Die Wahrheit ist: In einem Enterprise-Application-Portfolio gibt es keine Einheitslösung. Für einige Anwendungen kann die Public Cloud die kostengünstigste Plattform sein. Für andere Anwendungen kann sie die teuerste sein. Daher ist es wichtig, die optimale Plattform für jede Anwendung auszuwählen. Nur so kann sie das leisten, was ein Unternehmen in Bezug auf Kosten, Performance, Zuverlässigkeit und Sicherheit benötigt.

Mythos 2: Public Cloud bietet immer eine bessere Leistung – und das bei geringen Kosten
Die Fakten: Die Public Cloud kann erhebliche Einsparungen gegenüber der klassischen Infrastruktur bieten, wenn sie für die entsprechenden Workloads genutzt wird. Die Private Cloud kann sich bei vielen anderen Workloads als wirtschaftlicher erweisen. Die Erfahrungen unserer Kunden sowie detaillierte Analysen zu Preisen und Nutzungsverhalten zeigen, dass Private Cloud as a Service (PCaaS) bei vielen Unternehmensanwendungen 30 bis 59 Prozent im Vergleich zu Public Cloud-Lösungen einsparen kann. PCaaS ist eine innovative Methode, um Private Cloud-Funktionen bei Bedarf über Cloud-APIs und mit Optionen für flexible, umlageorientierte Preise bereitzustellen. Damit vereint sie viele der Vorteile von Public Cloud und Private Cloud. Die Kosteneffizienz kann sich sowohl im Festpreis- als auch im Pay-as-you-go-Modell manifestieren.

Mythos 3: Der einzige Weg, IT on Demand zu liefern, führt über die Public Cloud
Die Fakten: Diese These galt früher. Heute aber lässt sich IT on Demand mit einer Private Cloud oder mehreren Clouds in verschiedenen Konfigurationen liefern – On-Premises oder gehostet, mit jährlicher oder Pay-as-you-go-Abrechnung. Mit diesen Konfigurationen behält die zentrale IT-Abteilung die Kontrolle über die Unternehmensarchitektur und sorgt für einen optimalen Mix aus Kosteneinsparungen, Performance, Zuverlässigkeit und Sicherheit. Anwendungen und deren Daten werden so leichter integriert. Mit diesem Ansatz können Unternehmen Doppelspurigkeiten, Kosten und Sicherheitsrisiken vermeiden, die dadurch entstehen, dass mehrere Abteilungen Schatten-IT-Implementierungen über öffentliche und interne Clouds hinweg betreiben.

Mythos 4: Unternehmen mit umfangreichen Verpflichtungen für Rechenzentren und Hardwareinvestitionen erleiden hohe Verluste, wenn sie in die Cloud wechseln
Die Fakten: Mit einer Kombination aus Public und Private Clouds sowie Colocation können Unternehmen einen sofortigen ROI erzielen und gleichzeitig den maximalen Wert aus ihren Investitionen in Rechenzentren herausholen. Smarte Cloud-Einsteiger arbeiten mit Managed Service Providern zusammen, die ihnen dabei helfen, herauszufinden, welche Anwendungen auf welchen Plattformen in welchen Einrichtungen am kostengünstigsten laufen. Eine der attraktivsten Lösungen für Unternehmen, die an umfangreiche Verpflichtungen für Rechenzentren gebunden sind liegt darin, Private Clouds als Service innerhalb dieser Datacenter zu erstellen und moderne Cloud-Funktionen als schlüsselfertigen, vollständig verwalteten Service bereitzustellen. Unternehmen profitieren so von den Vorteilen der Cloud und erzielen gleichzeitig eine hohe Rendite für ihre Investitionen in Rechenzentren.

Mythos 5: Die Public Cloud ist das Epizentrum der IT-Innovation
Die Fakten: Die großen Public Cloud-Anbieter führen Innovationen in der Tat sehr schnell ein und veröffentlichen täglich eigene neue Dienste und Funktionen. Dennoch bringt die Open-Source-Community mehr Innovation hervor, als ein einziger, proprietärer Cloud-Anbieter. Die neuesten Zahlen verraten uns, dass etwa zwei Millionen Entwickler an Open-Source-Projekten mit einem geschätzten FuE-Wert von mehr als 400 Milliarden US-Dollar arbeiten, verglichen mit 115.000 Entwicklern, die für einen großen Public Cloud-Anbieter an Projekten im Wert von etwa 23 Milliarden US-Dollar arbeiten. Beliebte und leistungsstarke Managementsysteme für unstrukturierte Daten und Frameworks für Big Data, künstliche Intelligenz und Internet of Things Frameworks – sie alle sind in einer Vielzahl von Private und Public Clouds verfügbar.

Fazit: Smarte Cloud-Anwender wählen die optimale Plattform für jede ihrer Anwendungen auf der Grundlage von Fakten und nicht von Mythen aus. Die erfolgreichsten Cloud-Einsteiger suchen sich einen unabhängigen, erfahrenen Partner mit Fachwissen über alle führenden Public und Private Cloud-Technologien. Er kann ihre Geschäftsanforderungen und -pläne bewerten und ihnen helfen, die richtige Cloud-Plattform für jeden Workload zu finden.
(Rackspace: ra)

eingetragen: 18.12.18
Newsletterlauf: 04.02.19

Rackspace: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Tipps und Hinweise

  • AIOps-Ansatz liefert klare Vorteile

    Über Fehler in ihrem IT-Betrieb erfahren Unternehmen heute meist dadurch, dass sich Kunden über Probleme beschweren. Eine Umfrage von AppDynamics hat ergeben, dass 58 Prozent der IT-Teams durch Anrufe oder Kunden-E-Mails über Fehlfunktionen informiert werden. Führungskräfte oder andere Mitarbeiter außerhalb der IT entdecken 55 Prozent der bekannten Probleme. 38 Prozent werden durch User Posts in sozialen Netzwerken aufgedeckt. Natürlich wäre es für alle Beteiligten besser, wenn Unternehmen Fehler finden, bevor sich Kunden beschweren, oder sogar strukturelle Probleme so früh erkennen, dass Fehler gar nicht erst auftreten. Die enorme Komplexität heutiger Systeme und Infrastrukturen erlaubt das, zumindest auf konventionellen Wegen, nicht mehr. In einem vergleichsweise einfachen technischen System, wie einer Dampfmaschine, kann ein guter Maschinist durch regelmäßige Wartung für einen reibungslosen Betrieb sorgen. Er weiß, wo er seine Maschine schmieren muss, welche Belastungen er ihr zumuten kann und wann es Zeit wird, Verschleißteile auszutauschen. In modernen digitalen Systemen können Menschen dieses Verständnis nicht mehr erreichen.

  • Angst vor einem "Lock-in"

    Die Wahl der richtigen Plattform für Unternehmensapplikationen mag auf den ersten Blick nebensächlich erscheinen, dabei hat sie immensen Einfluss auf alle folgenden Entscheidungen im Hinblick auf die Entwicklungsumgebung. Denn fällt die Wahl auf den falschen Cloud Computing-Anbieter, das falsche Betriebssystem oder die falsche Programmiersprache kann das im Nachhinein bei Mitarbeitern zu Unzufriedenheit und Zähneknirschen führen und durch erhöhten Personalaufwand richtig teuer werden. Um das zu vermeiden, geht der Trend in Entwicklungsteams immer mehr zu (Software-)Containern und Microservices. Indem sie Fremdmaterial entfernen und die Größe der Images auf das erforderliche Maß reduzieren, erleichtern es Container, Software zielgerichtet einzusetzen. Und diese Konzentration auf das Wesentliche steigert die Produktivität von Entwicklern enorm. Eine Umfrage von 451 Research hat das jüngst noch einmal eindrucksvoll belegt: Rund 57 Prozent der befragten Unternehmen nannten die Produktivität der Entwickler als einen entscheidenden Grund für ihren Wechsel zu Containern.

  • Wie Hosting scheitern kann

    Wer ein Unternehmen betreibt, kommt um eine Präsenz im Web nicht herum. Egal ob Gastronomie, Industrie, Handwerk, Fashion, Kosmetik, Medien, Versicherungen oder Anwälte, selbst kleinste Privatunternehmer nutzen eine Internetseite, um ihre Dienste oder Produkte anzubieten. Dabei ist es wichtig, dass die Seite online immer verfügbar ist, sehr schnell lädt und es nicht zu Ausfallzeiten kommt. Je mehr Inhalt eine Website bietet und je höher die Besucherzahlen sind, umso größer ist die Gefahr, dass es zu Ausfällen oder langen Ladezeiten kommt. Dies betrifft jedoch nicht nur kleine Unternehmen, sondern auch Mittelständler und Enterprise. "Ein optimaler Webauftritt kann nur mithilfe von Hosting in professionellen Rechenzentren ausfallsicher und hochperformant abgebildet werden", weiß Torben Belz, Geschäftsführer der Plutex GmbH, und fügt hinzu: "Wer sich im Dschungel der Hosting-Optionen nicht auskennt, kann hier schnell Fehler machen."

  • Georedundanz gebender Rechenzentren

    Kurz vor Weihnachten hat das BSI (Bundesamt für Sicherheit in der Informationstechnik) seine Empfehlung für die Entfernung georedundanter Rechenzentren von fünf auf 200 Kilometer angehoben. Die Gründe für diese Empfehlung sind im neuen Leitfaden des BSI "Kriterien fu¨r die Standortwahl höchstverfügbarer und georedundanter Rechenzentren" genau dokumentiert. Was die Entfernung von einander Georedundanz gebender Rechenzentren betrifft, empfahl das BSI bisher einen Mindestabstand von fünf Kilometern. Mit der neuen, im Dezember 2018 veröffentlichten Empfehlung, hebt das BSI diese Distanz drastisch an. "Da es aber, insbesondere durch den Blick in die Vergangenheit, nicht möglich ist, zukünftige potentiell schädliche Situationen und Ereignisse ausreichend sicher vorherzusagen, sollten einander Georedundanz gebende Rechenzentren einen Mindestabstand von circa 200 Kilometer zueinander haben", führt das BSI in seinen Standort-Kriterien unter Punkt 3.3 aus - 40-mal so viel wie bisher. "Ist im Einzelfall ein deutlich geringerer Abstand unabweisbar", so das BSI weiter, " ist diese Notwendigkeit schriftlich ausführlich darzulegen und einer Risikoanalyse zu unterziehen". Doch auch dann, sollten georedundante Rechenzentren keinesfalls unter 100 Kilometer auseinanderliegen.

  • Cloud-Migration schnell und sicher umsetzen

    Entscheiden sich Unternehmen, ihre Applikationen in die Cloud zu migrieren, können sie nur profitieren. Denn die Cloud macht viele Digitalinnovationen überhaupt erst möglich. Allerdings kann beim Weg in die Cloud auch einiges schief gehen: Mangelndes Know-how, unrealistische Zeitvorgaben oder die Wahl der falschen Plattform sind gängige Stolpersteine. Richtig geplant wird die Migration in die Cloud jedoch zum Erfolgsprojekt. Rackspace hat drei Punkte zusammengestellt, auf die es bei der Planung ankommt.

  • Geschäftsprozesse in die Cloud verlagern

    Die Verlagerung von Geschäftsprozessen und Applikationen in die Cloud erfordert eine genaue Planung, damit die Datensicherheit zu jeder Zeit und in jedem Detail gewährleistet ist. Die Diskussion um den Einsatz von Cloud-Technologien ist mittlerweile nicht mehr von Sicherheitsbedenken geprägt. Heute wollen Unternehmen in erster Linie die damit verbundenen Chancen nutzen, um die Digitale Transformation voranzutreiben. Wenn Unternehmen komplette Geschäftsprozesse in die Cloud verlagern, lassen sich die erwarteten betriebswirtschaftlichen Ziele nur dann erreichen, wenn die Migration von Anfang an durch eine umfassende IT-Security-Strategie abgesichert ist - bei der die Sicherheit der Daten eine entscheidende Rolle spielt. NTT Security konkretisiert die wichtigsten Aktivitäten in fünf Schritten.

  • Daten nur verschlüsselt in der Cloud speichern

    Das Nutzen von Cloud Computing-Services gehört für die Mehrheit der Unternehmen längst zum festen Bestandteil der IT-Strategie. Die Möglichkeit des Datenzugriffs jederzeit und überall bringt zahlreiche Vorteile mit sich, allen voran verbesserte Flexibilität und erhöhte Produktivität. Die gestiegene Popularität dieser Dienste ist jedoch von böswilligen Akteuren nicht unbemerkt geblieben, was neue Arten von Cyberangriffen hervorgebracht hat. Eine Taktik, die in den vergangenen Jahren zunehmend zum Einsatz kam, ist der sogenannte "Man-in-the-Cloud" (MitC)-Angriff.

  • Daten in der Cloud und Cloud-Workloads

    As-a-Service-Lösungen verbreiten sich immer weiter. Dabei haben wir es längst nicht mehr mit einer einzigen Cloud zu tun. 82 Prozent der Unternehmen nutzen mehr als zehn verschiedene Public-Cloud-Dienste, so eine aktuelle Studie von McAfee. Dazu kommen noch Private Clouds und On-Premise-Systeme. Traditionelle Sicherheitssysteme stoßen im Angesicht dieser neuen komplexen Architekturen schnell an ihre Grenzen und Unternehmen drohen den Überblick zu verlieren. Rolf Haas, Enterprise Technology Specialist von McAfee, hat fünf Tipps um das zu verhindern:

  • Data Warehouse als erstes in die Cloud

    Die Migration des Data Warehouse in die Cloud ist für Unternehmen, die Teile ihrer Infrastruktur in die Cloud verlegen, ein wichtiger und über kurz oder lang auch notwendiger Schritt. Als eines der wichtigsten Puzzleteile der Infrastruktur, ist er leider auch meist sehr komplex und mit hohen Kosten verbunden. Anstatt die Migration dieses wichtigen Bestandteils der Dateninfrastruktur unnötig zu verzögern, können Unternehmen auf Automation setzen, um den Prozess zu vereinfachen. Ein wichtiges langfristiges Ziel vieler Unternehmen, im Prozess der Digitalen Transformation, ist die Nutzung von Cloud-Technologien. Schaut man sich die Zahlen der Cloud-Adaption jedoch genauer an, so sind offenkundig noch viele Unternehmen weit davon entfernt Teile ihrer Infrastruktur in die Cloud zu migrieren. Anstatt das langfristige Ziel Cloud, entschlossen anzupacken, prokrastinieren diese Unternehmen und setzen stattdessen oft auf Zwischenlösungen oder Abkürzungen. Und anstatt die wichtigen Bestandteile der Infrastruktur zuerst zu migrieren, wählen sie zuerst eher einfach zu migrierende Teile aus.

  • Datenstrategie braucht mehr als Tools

    Die Menschheit produziert 2,5 Trillionen Bytes pro Tag. In den letzten zwei Jahren wurden mehr Daten gesammelt, als in der gesamten Menschheitsgeschichte zusammen. Für jeden Menschen entstehen pro Sekunde 1,7 Megabyte neue Rohinformationen. Kurzum: Die Datenflut ist unaufhaltsam. Wobei diese Datenflut nicht automatisch bedeutet, dass daraus auch Wissen entsteht. Daten und Informationen an sich haben zunächst keinen Wert. Sie sind wie Rohdiamanten, die erst durch ihre Verarbeitung Brillanz gewinnen. Auch für Unternehmen entfalten Kundendaten erst ihren Wert, wenn sie ausgewertet einen Erkenntnisgewinn liefern, der zu neuen Handlungsoptionen führt. Das bedeutet, dass Unternehmen eine Datenstrategie brauchen, die ihre Geschäftsprozesse fundiert und leitet.