- Anzeige -


Sie sind hier: Startseite » Fachartikel » Grundlagen

Neue Datenverkehrsmuster im Entstehen


SDN -die Must-have-Technologie des Jahres
Cloud-Deployments und die massive Zunahme von Anwendungen und Endgeräten erhöhen den Druck auf die Verantwortlichen, die IT-Landschaft zu modernisieren

- Anzeigen -





Autorin Stefica Divkovic
Autorin Stefica Divkovic Grundsätzlich geht es bei SDN darum, die Datensteuerung vom Datenfluss zu trennen, Verizon Enterprise Solutions

Von Stefica Divkovic, Managing Director DACH, Verizon Enterprise Solutions

Der rasante technologische Wandel und die damit verbundene Disruption von Geschäftsmodellen führen dazu, dass multinationale Konzerne in ihren wichtigsten Märkten zunehmend agiler auftreten müssen. Jedoch fällt es ihnen aufgrund des expansiven Wachstums ihrer IT-Ökosysteme schwer, wirklich agil zu operieren – insbesondere dann, wenn sie durch eine veraltete IT-Infrastruktur ausgebremst werden. Cloud-Deployments und die massive Zunahme von Anwendungen und Endgeräten erhöhen den Druck auf die Verantwortlichen, die IT-Landschaft zu modernisieren.

Genau dieser Widerspruch gibt der Software-Defined Networking (SDN)-Technologie großen Auftrieb. SDN ist angetreten, eine Automatisierung und Virtualisierung von Netzwerkabläufen zu ermöglichen. Eine von Verizon durchgeführte Umfrage unter 165 führenden IT-Managern globaler Organisationen ergab, dass 15 Prozent der Befragten bereits SDN implementiert oder zumindest Pilotprojekte begonnen haben. Das Tempo der SDN-Implementierung wird weiter zunehmen: In nur zwei Jahren werden sich voraussichtlich rund 57 Prozent der Organisationen mit SDN-Projekten beschäftigen.

Grundsätzlich geht es bei SDN darum, die Datensteuerung vom Datenfluss zu trennen. In einer SDN-Umgebung wird also die Intelligenz eines Netzes von der physischen Datenübertragung getrennt. Diese Abstraktion ermöglicht es Unternehmen, ihre Bandbreitennutzung zu optimieren und gleichzeitig Netzwerkfunktionen zu virtualisieren. Durch diese Virtualisierung werden viele Aufgaben der Netzwerkverwaltung, die bislang in dedizierter Hardware implementiert sind, in Softwareanwendungen übertragen. Zu den Vorteilen der Virtualisierung zählen ein vereinfachter Kauf, schnelleres Testing und eine rasche Implementierung. Auch die Skalierung und Wartung erfolgen deutlich einfacher. Schließlich wird damit auch die Abhängigkeit von einem Hersteller verringert, sodass sich die geschäftliche Agilität erhöht. Aus Sicht von Unternehmen erleichtert sich zudem die Orchestrierung von Netzwerken, während Anwendungen über Funktionen wie on-demand und pay-as-you-go auf die jeweils benötigten Netzwerkressourcen zugreifen können. Diese Flexibilität ist der Schlüssel zu mehr Agilität, die Organisationen in einer digitalen Welt benötigen.

Neue Datenverkehrsmuster sind im Entstehen
Mit diesen neuen Möglichkeiten verändern sich auch die Netzwerke selbst. Entwicklungen wie Mediastreaming, Social Media und die verstärkte mobile Nutzung führen zu riesigen Datenmengen, die aufgrund von Konzepten wie Internet der Dinge, Künstliche Intelligenz und Edge-Computing weiter anwachsen werden. Aspekte wie Skalierbarkeit, Sicherheit und Netzwerk-Performance rücken damit verstärkt in den Mittelpunkt. Zudem ist das Datenaufkommen in Netzwerken nicht prognostizierbar, da zahlreiche Datenquellen, die über private und öffentliche Cloud-Infrastrukturen sowie Datenzentren verstreut sind, die Datenmengen zusätzlich antreiben.

Netzwerk-Security wird immer wichtiger
Bei Unternehmen, die zum Betrieb ihrer Netzwerke mehrere Anbieter nutzen, rücken die Grenzen der Skalierbarkeit sowie Sicherheitsbedenken damit stärker in den Vordergrund. Die Sicherheitsrichtlinien und -lösungen unterscheiden sich jedoch: So bieten zum Beispiel OTP-Netzwerk-Provider Sicherheit auf Ebene des Anwendungs-Layer, denn das verwendete Netzwerk gehört ihnen nicht. Da verschiedene Bestandteile der verwendeten Netzwerke von unterschiedlichen Serviceanbietern gesteuert werden, sind die von ihnen bewegten Daten beim Überqueren von Netzwerkgrenzen anfälliger gegen Verletzungen.

Im Gegensatz dazu kann ein Provider, dem die zugrunde liegende Netzwerkinfrastruktur gehört, ein sicheres Netzwerk entwerfen, das den Security-Anforderungen des Unternehmens entspricht. Netzwerk-Provider, die gleichzeitig Eigentümer des zugrunde liegenden Netzwerks sind, können daher deutlich solidere Schutzvorkehrungen gegen die immer häufiger vorkommenden Formen von Cyberangriffen, wie DDoS (distributed denial of service), Ransomware und Zero-Day-Bedrohungen, bereitstellen.

Darüber hinaus benötigen Unternehmen smarte Netzwerke, die dem Datenaufkommen anhand der verwendeten Anwendungen Prioritäten zuordnen. Dies muss sowohl am Point-of-Entry erfolgen, als auch an den Punkten, an dem die Daten das Netzwerk wieder verlassen. Weiterhin priorisieren intelligente Netze jede Anwendung automatisch und teilen ihr eine jeweils angemessene Bandbreite zu. Zum Beispiel unterscheidet das Netzwerk zwischen Audio- und Videoanwendungen, die eine höhere Priorität als das gelegentliche Surfen im Internet erfordern.

Diese verfeinerte Herangehensweise an das Ausbalancieren des Traffics ist über öffentliche Internet-Anbindungen nicht möglich, wohl aber durch die Zusammenarbeit mit einem Provider, der private MPLS-Verbindungen anbietet und diese rund um die Uhr mit Blick auf Performance, Skalierbarkeit und Sicherheit überwacht. Insbesondere das Thema Sicherheit wird häufig als Grund angeführt, bestehende Infrastrukturen zu modernisieren.

Sicherheitsbedenken hemmen Kreativität
Nie zuvor haben Unternehmen mehr über Cybersicherheit und wachsende Bedrohungen nachgedacht, über mögliche Datenverletzungen und wie sehr Fehlschläge die Innovationsfähigkeit hemmen können. Auf Unternehmensseite zeigen sich Manager jedoch besorgt, dass sich zusätzliche Schwachstellen ergeben, wenn neue Technologien zu rasch implementiert oder neue Partner an Bord geholt werden.

SDN kann die Sicherheit sowohl in technischer als auch in praktischer Hinsicht verbessern. Zum einen sind vollständig geschlossene Netzwerke mit verschlüsseltem Datenverkehr von Natur aus sicherer als herkömmliche Netzwerklösungen. Zum anderen bietet SDN die Möglichkeit, vorhandene Anwendungssicherheit in die virtuellen Umgebungen der Benutzer zu integrieren. So sind Unternehmen besser in der Lage, ihre IT-Resilienz zu verbessern und gleichzeitig die Innovationen zu verfolgen, die sie so dringend benötigen.

Investitionen zur Überwindung des "Legacy-Modells" notwendig
Bei Einführung neuer Technologien sollten Unternehmen ihre Ziele und die Planung von Anfang an klar definieren. Denn nur so lässt sich auch ein robuster Governance-Prozess einrichten, damit sich beispielsweise interne Teams auf neue Arbeitsweisen einstellen können. Darüber hinaus kann es sinnvoll sein SDN-Lösungen schrittweise einzuführen. Außerdem sollten sich Unternehmen einen Provider suchen, der ähnliche strategische Ziele rund um die Netzwerktransformation verfolgt. Dies kann helfen, ein physisches Netzwerk schneller in ein virtuelles On-Demand-Netz zu transformieren.

Fazit
Wenn in einer Welt des permanenten Wandels "fail fast" für zahlreiche Organisationen zu einem Kerndogma geworden ist, dann muss "fail cheap" auch dazuzählen. Wer mit neuen Anwendungen experimentiert, neue Produkte und Services ausprobiert und dafür kostspielige und schwerfällige IT-Strukturen einsetzt, wird schnell an seine Grenzen stoßen. Wird SDN zentral gemanagt, entfällt die Notwendigkeit individueller Device-Konfiguration für jede neue Iteration einer Anwendung, wodurch sich beispielsweise Modernisierungsprojekte beschleunigen. Wer sich also für ein SDN-Projekt entscheidet, sollte beachten, dass es weniger um die Inbetriebnahme von SDN selbst geht, sondern um die Nutzung des transformativen Potenzials dieser Technologie.
(Verizon Enterprise Solutions: ra)

eingetragen: 31.08.18
Newsletterlauf: 05.09.18

Verizon Communications: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Grundlagen

  • Cloud-Big Data-Projekte: Exponentielles Wachstum

    Für IT-Verantwortliche wird es immer wichtiger, mit der Cloud den Einsatz innovativer Technologien zu unterstützen. Cloud Cpmputing-Services für Machine Learning, Künstliche Intelligenz, Blockchain oder Serverless Computing sind heute mit wenigen Mausklicks abrufbar. Damit beschleunigt sich die Umsetzung neuer Geschäftsmodelle ebenso wie die Produktentwicklung. Warum ein organisationsweites Datenmanagement für den Cloud-Erfolg wichtig ist, zeigt der folgende Beitrag. In der Studie "Multi-Cloud in deutschen Unternehmen" berichten die Analysten von IDC, dass 68 Prozent der Unternehmen bereits Cloud Computing-Services und -Technologien für mehrere Workloads verwenden.

  • Multiple Clouds nicht gleich Multi-Cloud

    Multi-Cloud ist derzeit einer der heißesten Trends für Unternehmen. Die Verwendung mehrerer Clouds gleichzeitig, kann viele Vorteile bieten. Richtig eingesetzt kann man mit der richtigen Kombination von Clouds unter anderem die Kosten für Infrastruktur senken, die Präsenz von Daten und Workloads in verschiedenen Regionen verbessern oder die Herstellerbindung an Cloud Computing-Anbieter vermeiden. Unternehmen, die den Ansatz Multi-Cloud hingegen falsch verstanden haben, kann dieses Missverständnis viel Geld kosten. Denn eine fehlgeleitete Multi-Cloud-Strategie hat das Potenzial, Anwendungen, Teams und Budgets unnötig aufzusplitten.

  • So gelingt der Umzug in die Cloud

    Geblendet von den zahlreichen Vorteilen, wollen viele Unternehmen zumindest Teile ihrer IT in die Cloud migrieren. Der Wunsch dies so schnell wie möglich zu tun ist verständlich, aber in den meisten Fällen völlig unrealistisch. Entscheidungsträger sollten neben den offensichtlichen Vorteilen auch die Zeit in Betracht ziehen, die nötig ist diese zu erreichen. Hierbei kann das Konzept Time To Value (TTV) helfen den richtigen Zeitpunkt für den Umzug zu ermitteln. Die Vorteile Cloud Computing-Technologien zu nutzen sind mittlerweile gut dokumentiert. Einer der wichtigsten ist die mit ihr verbundene Flexibilität, die es erlaubt nur für die Leistung zu bezahlen, die auch gebraucht wird. Die Entscheidung pro Cloud scheint somit auf der Hand zu liegen. Doch der Teufel steckt bekanntlich im Detail und trotz des Willens vieler Organisationen, mehr auf die Cloud zu setzen, ist ein Umzug über Nacht einfach nicht möglich sondern muss von langer Hand geplant sein.

  • Bedarf an schnellem Service-Management

    "Die Fabrik der Zukunft wird nur noch zwei Mitarbeiter haben, einen Mann und einen Hund. Der Mann ist da, um den Hund zu füttern und der Hund, um den Mann davon abzuhalten, Geräte zu berühren." Wie weit wir aktuell noch von dieser im Jahr 1990 geäußerten Vision von Warren Bennis entfernt sind, wird immer wieder versucht vorherzusagen. Schon den jetzigen technologischen Stand vor fünf Jahren präzise vorauszusehen, wäre aber nahezu unmöglich gewesen. In Bezug auf IT-Service Management (ITSM) zeichnet sich meiner Ansicht nach bereits ab, was kurz- und mittelfristig auf Unternehmen zukommen wird. Zum Beispiel werden neue Technologien wie Künstliche Intelligenz und Machine Learning noch stärker in den Mittelpunkt rücken, während eine ansprechende Benutzererfahrung und die Minimierung der Total Cost of Ownership weiterhin wichtig bleiben werden. Folgende fünf Themen sollten IT-Verantwortliche im Auge behalten und prüfen, ob ihre Service Management-Infrastruktur dafür gewappnet ist.

  • Freiheit für die Cloud!

    In der Ökonomie ist ein freier Markt ein idealisiertes System, in dem die Preise für Waren und Dienstleistungen durch Angebot und Nachfrage bestimmt werden. Die Kräfte von Angebot und Nachfrage in einem freien Markt sind per Definition frei von jeglichen Eingriffen einer Regierung, eines preisgebenden Monopols oder einer anderen Behörde. Doch wie jeder Wirtschaftsstudent weiß, führt eine freie Marktwirtschaft, wenn sie unreguliert ist, allzu oft zu einem Monopol oder zumindest einem Oligopol, das die Innovation einschränkt und die Preise erhöht, da der Kunde weniger Wahlmöglichkeiten hat. In der Praxis sind die Märkte für alle Arten von Produkten und Dienstleistungen in der Tat selten ideal.

  • Überlegt zum Sprung in die Wolke ansetzen

    Bis 2025 wird die Cloud-Nutzung so fest im Geschäftsalltag verankert sein, dass es Wichtigeres gibt, als über die Cloud zu reden. Diese Prognose teilt ein Fünftel der deutschen IT-Entscheider in einer aktuellen Umfrage, die der amerikanische Softwareanbieter Citrix durchgeführt hat. Noch besteht viel Redebedarf. Zum Beispiel, ob sich eine Private, Hybrid oder Multi-Cloud am besten eignet. Das hängt vom Branchenumfeld, den Geschäftsaktivitäten, Geschäftszielen, IT-Anforderungen und -Budget sowie dem IT-Know-how der Belegschaft ab. So kann es den weltweiten Vertrieb einer Firma verbessern, wenn allen Vertriebsmitarbeitern ein Reporting-Tool zur Verfügung steht. In dem Fall ist es sinnvoll, diesen Workload in der Cloud zu betreiben. Einrichten lässt sich zudem ein On-Premises-Arbeiten, in dem die Vertriebsprofis die eigentlichen Reports lokal erstellen und im jeweiligen Rechenzentrum am Standort ablegen.

  • Patienten engmaschiger überwachen

    Das Internet der Dinge (Internet of Things, IoT) entwickelt sich mehr und mehr zur nächsten industriellen Revolution. Zahlreiche Branchen "springen" auf "den Zug auf". Die Gesundheitsbranche bildet hier keine Ausnahme. Innovationen bei medizinischen Geräten, Medikamenten, Patientenüberwachung und vielem mehr sprießen wie die sprichwörtlichen Pilze aus dem Boden. Intelligente Technologien arbeiten effizient und genau, und das kann im wahrsten Sinne des Wortes lebensrettend sein.

  • Neue Datenverkehrsmuster im Entstehen

    Der rasante technologische Wandel und die damit verbundene Disruption von Geschäftsmodellen führen dazu, dass multinationale Konzerne in ihren wichtigsten Märkten zunehmend agiler auftreten müssen. Jedoch fällt es ihnen aufgrund des expansiven Wachstums ihrer IT-Ökosysteme schwer, wirklich agil zu operieren - insbesondere dann, wenn sie durch eine veraltete IT-Infrastruktur ausgebremst werden. Cloud-Deployments und die massive Zunahme von Anwendungen und Endgeräten erhöhen den Druck auf die Verantwortlichen, die IT-Landschaft zu modernisieren.

  • Kontrolle über SaaS-Anwendungen behalten

    Wer Software-Ausgaben unter Kontrolle bringen will, braucht ein intelligentes Software Management. Daran hat auch Software-as-a-Service (SaaS) nichts geändert. Ganz im Gegenteil: Schatten-IT und Shelfware zählen zu den größten Kostenfallen bei Cloud-basierten Anwendungen. Durchschnittlich kommen in Unternehmen 15x mehr SaaS-Anwendungen zum Einsatz als auf offizieller Seite bekannt ist. Der Grund für die Schatten-IT ist leicht nachzuvollziehen: Für Mitarbeiter ist es sehr einfach Anwendungen über die Cloud zu abonnieren. Kreditkarte und E-Mail-Adresse reichen Public Cloud-Anbietern wie Amazon Web Services (AWS) und Microsoft Azure aus, um in wenigen Schritten ein Konto anzulegen und je nach Bedarf SaaS-Anwendungen zu beziehen - in vielen Fällen ohne Absprache mitder IT oder dem Einkauf.

  • In die Cloud - aber sicher

    Dr. Chris Brennan, Regional Director DACH, Eastern Europe, Russia and Israel von Skybox Security erläutert, wie die Migration in die Cloud und dabei zu berücksichtigende Sicherheitsaspekte in Einklang gebracht werden können. Unternehmen setzen vermehrt auf Cloud Computing-Umgebungen. Einer der Vorteile dabei ist, dass die Cloud eine hohe Skalierbarkeit und Agilität aufweist. Wenn dabei aber die Sicherheitsrisiken vernachlässigt werden, die dieser Schritt mit sich bringt, kann daraus ein großer Nachteil erwachsen. Ein gängiger Fehler dabei ist, dass viele Entscheider denken, dass der Cloud Security Provider (CSP) mehr Verantwortung für die Sicherheit trägt, als er tatsächlich tut.