- Anzeige -

Cloud Computing und WAN-Optimierung


Big Data ist ohne WAN-Optimierung nicht denkbar
Datenbestände müssen über Weitverkehrsnetze schnell, zuverlässig und kostengünstig zum Cloud Computing-Service transportiert werden, der die Analyse übernimmt

Anzeige

(14.02.12) - Neben Cloud Computing ist "Big Data" einer der Begriffe, mit dem sich IT-Fachleute derzeit intensiv beschäftigen. Dahinter verbirgt sich der Transport, das Speichern und die Analyse von großen Mengen unterschiedlicher Daten in Cloud Computing-Umgebungen. Doch Big Data hat laut Silver Peak Systems, einem Anbieter von WAN-Optimierungslösungen, für den Einsatz in Rechenzentren und Cloud Computing-Umgebungen, einen Haken: Die Datenbestände müssen über Weitverkehrsnetze schnell, zuverlässig und kostengünstig zum Cloud Computing-Service transportiert werden, der die Analyse übernimmt.

Damit sind mehrere Probleme verbunden: Je weiter das Cloud Computing-Rechenzentrum vom Standort des Nutzers entfernt ist und je weniger WAN-Bandbreite (Wide Area Network) zur Verfügung steht, desto länger dauert der Transfer der Daten. Im Extremfall sind die Analyseergebnisse bereits veraltet, wenn sie nach ihrer Reise durch das WAN wieder beim Auftraggeber eintreffen.

Ein weiterer Faktor ist die Geschwindigkeit: Die Datenmengen, die im Rahmen von Big-Data-Projekten verarbeitet werden, nehmen stetig zu. Zudem muss speziell die Analyse von "Streaming Data" schnellstmöglich erfolgen. Das setzt jedoch leistungsfähige WAN-Verbindungen voraus. Nicht jedes Unternehmen verfügt jedoch über solche – kostspieligen – Links oder hat das Glück, dass der Cloud-Service Provider ein Rechenzentrum am selben Standort unterhält. In diesem Fall ist der Einsatz von WAN-Optimierungslösungen wie denen von Silver Peak Systems ein probates Mittel, um die negativen Effekte von zu hohen Latenzzeiten und zu niedriger WAN-Bandbreite zu eliminieren.

Vor derselben Herausforderung wie Unternehmen, die Big Data in der Cloud analysieren lassen, stehen Firmen, die Daten zwischen mehreren Standorten replizieren, Stichwort Disaster Recovery. Auch in diesem Fall ist es eine Überlegung wert, WAN-Appliances einzusetzen. (Silver Peak Systems: ra)

Sans-Institut: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

 
Kostenloser SaaS/Cloud Computing-Newsletter
Ihr SaaS-Magazin.de-Newsletter hier >>>>>>


- Anzeige -


Meldungen: Hintergrund

Fortschrittlicheres IT-Management Kaseya, Anbieterin von Software für Cloud-basiertes IT-Management, stellt ein Fünf-Schritte-Model von, mit dem Unternehmen fortschrittlicheres IT-Management haben können. Im Gegensatz zur gängigen Annahme haben mittelständische Unternehmen einen großen Vorteil, wenn sie ihre IT voranbringen wollen. Der Schlüssel dafür heißt Flexibilität, weil Mittelständler ihre IT mit einem geringen finanziellen Aufwand weiterentwickeln können.

HR-Management aus der Cloud Das Personalwesen und das Human Capital Management (HCM) haben in den letzten Jahren deutlich und vielerorts auch nachhaltig an Bedeutung gewonnen. Mit den wachsenden Funktionsumfängen betriebswirtschaftlicher Lösungen hat sich das Personalwesen vom Verwaltungsapparat bis heute zu einem wertvollen strategischen Instrument zur Umsetzung der Unternehmensziele entwickelt. Nicht nur im personalintensiven Dienstleistungssektor gilt das Human Capital Management heute als kardinale Managementdisziplin, die mit ihren Kernaufgaben wie u.a. Personalauswahl, Talent und Performance Management, Personalentwicklung, Self Services oder Ressourcensteuerung einen gewichtigen Beitrag zum Unternehmenserfolg leistet. Bedarfsgerechte Cloud Computing-Angebote eröffnen mit ihren flexiblen und nutzungsorientierten Betriebsmodellen quasi für jedermann eine schnelle und preisgünstige Transformation der HR-Prozesse zu einem proaktiven Managementwerkzeug.

Cloud: Auch WANs können Probleme bereiten Cloud Computing bringt einem Unternehmen eine Menge Vorteile, etwa niedrigere Kosten, Rechenleistung und Software nach Bedarf oder Zugriff auf ausgefeilte Funktionen wie Disaster Recovery und Datenreplizierung in einem Cloud-Data-Center. "Doch ein Cloud Computing-Projekt kann schnell in einem Debakel enden", warnt Jeff Aaron, Vice President Marketing bei Silver Peak Systems, einem weltweit führenden Anbieter von Software, mit der sich Daten schnell, effizient und sicher über große Entfernungen übermitteln lassen. "Das ist dann der Fall, wenn der Nutzer nicht im Vorfeld prüft, ob seine Netzwerkinfrastruktur für die speziellen Anforderungen von Cloud Computing-Diensten ausgelegt ist."

Externe Cloud kann zur Schatten-IT führen Laut den Analysten von Gartner wird der Anteil der Mitarbeiter, die im IT-Betrieb tätig sind, von heute bis zu 70 Prozent auf unter 30 Prozent sinken (Gartner: "IT Professional Outlook, 2012 to 2016", Januar 2012). Damit steht die IT-Organisation vor einer drastischen Veränderung: Soll sie den IT-Betrieb weiterhin intern leisten, so muss sie einen hohen Automatisierungsgrad erreichen. Der Druck auf IT-Verantwortliche wird durch die Angebote externer Cloud Service-Provider verstärkt, die IT-Leistungen durch flexibel skalierbare Rechenzentren mit modernster Technik anbieten.

Komplexitätsproblem Cloud Computing Keine Frage, Cloud Computing ist auf dem Vormarsch. Schon heute hängen 44 Prozent aller Händler-Websites von Amazons Cloud Computing-Plattform "EC2" ab. Dazu steigt der Anteil an Online-Inhalten von Drittanbietern (CDN) stetig weiter an. Und auch Big Data steht nicht mehr zu Wahl, sondern ist bereits Wirklichkeit. Nach Erhebungen von Deloitte werden bis Ende des Jahres schon über 90 Prozent der Fortune 500 Unternehmen Big Data-Initiativen auf den Weg gebracht haben.

Cloud Computing braucht Sicherheit Die Gefahren beim Cloud Computing müssen beherrschbar sein. Dies forderte die Nifis Nationale Initiative für Informations- und Internet-Sicherheit e.V. anlässlich der diesjährigen it-sa 2012. Laut Nifis ist die Gefahr, beim Nutzen der Daten-Wolke durch Hacker-Angriffe in Mitleidenschaft gezogen zu werden und dabei sensible Daten zu verlieren, sehr groß. Vor allem Datenpannen bei Cloud Computing-Anbietern sorgen immer wieder für ein unkalkulierbares Bedrohungspotential.

Was Cloud-Lösungen dem Mittelstand bringen Der Vorteil von Cloud Computing-Anwendungen im Mittelstand ist in aller Munde. ProjectHQ bietet mit dem "Cloud-Kompass" nun den direkten Vergleich zwischen klassischer Software und modernen Cloud-Lösungen. Mit dem "ProjectHQ Cloud-Kompass" ist es möglich, den direkten Kostenvergleich zwischen klassischer Software und einer modernen Cloud Computing-Lösung anzustellen. Interessierte Unternehmen können mit nur wenigen Angaben zu bestehenden Systemen eine aussagekräftige Abschätzung der Kosten- und Funktionsvorteile für ihre Ansprüche erhalten.

IT Security & Cloud Computing-Storage-Services Sicherheitsexperten des Fraunhofer-Instituts für Sichere Informationstechnologie (SIT) haben festgestellt, dass mehrere Cloud Computing-Storage-Services bei der Registrierung nicht die angegebene E-Mail-Adresse überprüfen. In Kombination mit Funktionen der Cloud-Speicherdienste wie z.B. File Sharing oder integrierten Benachrichtigungsfunktionen ergeben sich dadurch verschiedene Angriffsmöglichkeiten. So können Angreifer unter falschem Namen etwa Malware in Umlauf bringen oder vertrauliche Daten ausspionieren.

Schnittstellen sind Angriffsstellen Mithilfe der Testmethodik des sogenannten "Fuzzing" lassen sich viele Qualitäts- und Sicherheitslücken im Cloud Computing und bei mobilen Anwendungen erkennen und dadurch schließen. Voraussetzung dabei ist, dass das Fuzzing systematisch in den Testprozess von Unternehmen integriert ist. Zu diesem Ergebnis kommt das Forschungsprojekt "SecuriFIT", das vom IT-Security-Netzwerk "SesamBB" mit Mitteln des Bundes und des Landes Brandenburg beauftragt wurde.

Konzept der Cloud nicht generell unsicher Context Information Security hat potenziell schwerwiegende Sicherheitslücken in den Implementierungen von Cloud Computing-Infrastrukturdienstleistungen einiger Anbieter identifiziert. Schwachstelle ist die nicht ausreichende serverseitige Trennung von Kundendaten, die dadurch ernsthaft gefährdet sein können. So gelang es den Analysten, auf die Daten früherer Nutzer zuzugreifen, da diese noch auf den Festplatten gespeichert waren – sie waren durch die Systeme nur überschrieben und nicht gelöscht worden. Auf diesen "Dirty Disks" lagen Teile von Kundendatenbanken sowie Systeminformationen. In Kombination mit anderen Daten könnten Hacker die Kontrolle über andere Hosted Server übernehmen.

Autor / Quelle (abcd) der Beiträge siehe Angaben in Klammern vor Doppelpunkt: (abcd:)