- Anzeige -


Sie sind hier: Startseite » Fachartikel » Grundlagen

Ethernet erobert Weitverkehrsnetze


Ethernet, Standard in lokalen Netzwerken, kommt immer häufiger auch in Weitverkehrsnetzen (WAN) zum Einsatz
Niedrige Latenzzeiten, verbesserte Ausfallsicherheit und nicht zuletzt niedrige Kosten


Von Dr. Adelino Santos (*)

(08.04.10) - Immer mehr Unternehmen weisen heute eine verzweigte Organisationsstruktur mit geographisch weit voneinander entfernten Standorten auf. Zudem lassen vielversprechende neue Technologien wie Unified Communications und Disaster Recovery die technischen und wirtschaftlichen Anforderungen an Datennetzwerke wachsen. Vor allem eine Netzwerktechnologie hat das Potenzial, diesen Entwicklungen gerecht zu werden: der einfache, ursprünglich für lokale Netze entwickelte Ethernet-Standard, der als "Carrier Ethernet" WAN-tauglich gemacht wurde.

Carrier Ethernet-Technologie bietet sichere, einfache und schnelle Anbindungen, mit denen sich Applikationen deutlich beschleunigen lassen. Gleichzeitig liefert sie die nötige Ausfallsicherheit, auf die Unternehmen aus operativen und wirtschaftlichen Gesichtspunkten angewiesen sind, und eine hohe Flexibilität, die Netzwerklösungen zukunftssicher macht.

Im Forrester Report "The Recession Will Accelerate European Ethernet Services Adoption" von Mai 2009 führt Phil Sayer, Principal Analyst des Research-Unternehmens, die beschleunigte Einführung von Ethernet-Diensten auf drei Faktoren zurück:

>> Integrierte Kommunikationslösungen (Stichwort "Unified Communications") sind trotz wirtschaftlich schwieriger Zeiten weiter auf dem Vormarsch. Solche Lösungen benötigen hohe Bandbreiten als Voraussetzung.

>> Die Konsolidierung von IT-Infrastruktur genießt bei vielen Unternehmen hohe Priorität. Dazu gehört auch die Restrukturierung von Unternehmensnetzen.

>> Disaster Recovery (DR) steht weit oben auf der Agenda vieler CIOs. DR-Lösungen erfordern den kontinuierlichen Transfer großer Datenmengen, was Netzwerke mit hoher Bandbreite voraussetzt und die Themen Verfügbarkeit, Ausfallsicherheit und nicht zuletzt Kosteneffizienz für viele Unternehmen wieder in den Mittelpunkt rückt. In diesen Bereichen punktet Ethernet als Alternative zu traditionellen Netzwerklösungen.

Diese Punkte sind für Sayer die entscheidenden Faktoren für die fortschreitende Verbreitung von Carrier Ethernet in Europa. Bei der Einführung und Verwaltung von Ethernet-Netzwerken ergeben sich Einsparungen im Vergleich zu herkömmlichen WAN-Lösungen von bis zu 30 Prozent. Die jeweils eigenen Protokolle, Verfahren und physischen Schnittstellen der klassischen Lösungen stehen zudem dem Bestreben vieler Unternehmen entgegen, ihre Netzwerkinfrastruktur möglichst homogen zu halten und eine entsprechende Skalierbarkeit sicherzustellen.

Doch dem Markt steht noch eine weitere entscheidende Innovation bevor. Heute basieren die meisten Ethernet-WAN-Lösungen noch immer auf klassischen Netzwerktechnologien wie SDH. Der Anbieter stellt hierbei dem Kunden eine Ethernet-Schnittstelle zur Verfügung, überträgt die Daten aber weiterhin auf dem tradtionellen Weg über klassische Carrier-Weitverkehrsnetze.

Das volle Potential der Technologie lässt sich jedoch erst durch die Einführung einer Carrier-Netzwerk-Infrastruktur ausschöpfen, die Ende-zu-Ende mit originärem Ethernet arbeitet.

Dieses homogene Ethernet-Netz bietet eine Reihe von Vorteilen:
>> Die Latenzzeiten werden noch einmal verkürzt,
>> das Netz des Anbieters ist einfacher zu administrieren,
>> Kundenstandorte lassen sich problemlos hinzufügen und
>> die Übertragungsbandbreiten lassen sich einfacher und schneller an geänderte Kundenanforderungen anpassen.

Werden solche Ethernet-Infrastrukturen zusätzlich als separates Netzwerk aufgebaut bieten sie zudem ein Plus an Leistungsfähigkeit, denn dem Kunden können dedizierte Bandbreiten zur Verfügung gestellt werden. Auf diese Weise kann der Anbieter dem Kunden bestimmte Geschwindigkeiten und Betriebszeiten von Applikationen garantieren.

Dedizierte Ethernet-Lösungen eignen sich vor allem für Anwendungen, bei denen es in besonderem Maße auf Tempo und Sicherheit ankommt, etwa Unified Communications, Finanzhandel, ERP-Systeme, Citrix-Umgebungen, Rechenzentrumsanbindungen oder auch Disaster Recovery (DR)- und Business Continuity-Lösungen.

Moderne Carrier-Ethernet-Lösungen kombinieren die Zuverlässigkeit und Flexibilität des bekannten LAN-Standards mit niedrigeren Kosten und kurzen Laufzeiten. Daher werden sich Netzwerkinfrastrukturen, die durchgängig mit Ethernet arbeiten, im Markt durchsetzen. (Colt Telecom: ra)

(*) Von Dr. Adelino Santos ist Leiter des Bereichs Großkunden und Mitglied der Geschäftsleitung bei Colt Telecom in Deutschland

Colt: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Grundlagen

  • Neue Datenverkehrsmuster im Entstehen

    Der rasante technologische Wandel und die damit verbundene Disruption von Geschäftsmodellen führen dazu, dass multinationale Konzerne in ihren wichtigsten Märkten zunehmend agiler auftreten müssen. Jedoch fällt es ihnen aufgrund des expansiven Wachstums ihrer IT-Ökosysteme schwer, wirklich agil zu operieren - insbesondere dann, wenn sie durch eine veraltete IT-Infrastruktur ausgebremst werden. Cloud-Deployments und die massive Zunahme von Anwendungen und Endgeräten erhöhen den Druck auf die Verantwortlichen, die IT-Landschaft zu modernisieren.

  • Kontrolle über SaaS-Anwendungen behalten

    Wer Software-Ausgaben unter Kontrolle bringen will, braucht ein intelligentes Software Management. Daran hat auch Software-as-a-Service (SaaS) nichts geändert. Ganz im Gegenteil: Schatten-IT und Shelfware zählen zu den größten Kostenfallen bei Cloud-basierten Anwendungen. Durchschnittlich kommen in Unternehmen 15x mehr SaaS-Anwendungen zum Einsatz als auf offizieller Seite bekannt ist. Der Grund für die Schatten-IT ist leicht nachzuvollziehen: Für Mitarbeiter ist es sehr einfach Anwendungen über die Cloud zu abonnieren. Kreditkarte und E-Mail-Adresse reichen Public Cloud-Anbietern wie Amazon Web Services (AWS) und Microsoft Azure aus, um in wenigen Schritten ein Konto anzulegen und je nach Bedarf SaaS-Anwendungen zu beziehen - in vielen Fällen ohne Absprache mitder IT oder dem Einkauf.

  • In die Cloud - aber sicher

    Dr. Chris Brennan, Regional Director DACH, Eastern Europe, Russia and Israel von Skybox Security erläutert, wie die Migration in die Cloud und dabei zu berücksichtigende Sicherheitsaspekte in Einklang gebracht werden können. Unternehmen setzen vermehrt auf Cloud Computing-Umgebungen. Einer der Vorteile dabei ist, dass die Cloud eine hohe Skalierbarkeit und Agilität aufweist. Wenn dabei aber die Sicherheitsrisiken vernachlässigt werden, die dieser Schritt mit sich bringt, kann daraus ein großer Nachteil erwachsen. Ein gängiger Fehler dabei ist, dass viele Entscheider denken, dass der Cloud Security Provider (CSP) mehr Verantwortung für die Sicherheit trägt, als er tatsächlich tut.

  • Das lebende Unternehmen

    Der menschliche Körper ist ein bemerkenswerter Organismus. Ohne hier zu tief in Anatomie und Physiologie des Menschen einzutauchen, gibt es zahlreiche Bereiche, in denen sich der Mensch und die Datenverarbeitung eines Unternehmens stark ähneln. Zwar sind die Systeme des Menschen nicht digital sondern organisch, das Gesamtsystem Mensch funktioniert jedoch ganz ähnlich wie eine Organisation - eine große Anzahl an Informationssystemen laufen parallel und transportieren eine Fülle von Informationen zu jedem Organ. Wenig überraschend, ist der Mensch der IT in Sachen Datenverarbeitung nach vielen Millionen Jahren Evolution um einiges voraus. So funktioniert die Datenverarbeitung des Menschen in den meisten Fällen nicht nur in Echtzeit, sondern auch komplett automatisiert. Hier können Unternehmen ansetzen, um vom Menschen zu lernen und ihre IT in Zeiten der Digitalisierung leistungsfähiger zu machen.

  • Security und Leistung in der Cloud vereinen

    Moderne Anwendungen müssen skalieren und performant sein. Um diese Anforderungen zu erreichen, werden viele Implementierungen auf Public Cloud-Plattformen wie Amazon Web Services (AWS), Microsoft Azure und Google Cloud Platform (GCP) gehostet, was für Elastizität und Geschwindigkeit sorgt. Und die Cloud-Nutzung boomt, mittlerweile setzen zwei von drei Unternehmen in Deutschland Cloud Computing ein, so das Ergebnis einer repräsentativen Umfrage von Bitkom Research im Auftrag der KPMG. Vorteile wie hohe Flexibilität, Effizienzsteigerung der Betriebsabläufe und verbrauchsabhängige Abrechnung von Services liegen auf der Hand.

  • Es ist an der Zeit, die Cloud zu dezentralisieren

    Heute beheimatet die Erde 206 souveräne Staaten. Souveränität ist, wie uns das Lexikon erklärt, das "volle Recht und die Macht eines Regierungsorgans über sich selbst, ohne Einmischung von außen". In gewisser Weise hat die in den frühen 2000er Jahren eingeführte Public Cloud die Souveränität vieler Staaten in Frage gestellt: Sie zentralisierte Daten- und Cloud Computing-Services auf sehr effiziente Weise, um Kunden in jeder Ecke der Welt zu bedienen - eine Welt ohne Grenzen. Verbraucher und Unternehmen begrüßten das befreiende Konzept, das sich schnell weiterentwickelte.

  • Cloud-Sicherheit & Shared Responsibility-Modell

    Viele Unternehmen setzen auf eine Kombination verschiedener Backup-Lösungen, häufig über mehrere Standorte hinweg. Im Krisenfall macht es solch eine Strategie jedoch oft schwierig, Dateien zeitnah wiederherzustellen. Dagegen bieten Cloud-integrierte Lösungen einfaches Testen der Disaster-Recovery-Strategie und im Notfall die rasche Rückkehr zum Normalbetrieb. Daten sind für Unternehmen heute wertvolle Rohstoffe und müssen besser gesichert werden als je zuvor. Gerade in Zeiten weltweiter Ransomware-Attacken ist eine profunde Backup- und Disaster Recovery-Strategie daher unabdingbar geworden, um im Krisenfall sofort reagieren zu können und die Geschäftskontinuität zu sichern. Doch bei der Disaster Recovery geht es nicht nur um Ransomware-Bedrohungen und Advanced Threats, sondern ebenso um die Wiederherstellung nach Hardware-Ausfällen von IT-Komponenten wie Servern und Storage-Systemen, aufgrund menschlicher Fehler oder einer Naturkatastrophe.

  • Wächter des Cloud-Datenschatzes

    Im Zuge der Digitalisierung wächst die Datenmenge, die Unternehmen täglich verarbeiten, stetig an. Dies spiegelt sich auch in der gestiegenen Nutzung von Cloud Computing-Anwendungen in den vergangenen Jahren wider. Unternehmensdaten sind rund um die Uhr überall zugänglich, ermöglichen effiziente Arbeitsabläufe und - zumindest auf den ersten Blick - etwas weniger Verwaltungsaufwand für die IT-Abteilung. Dieser Effekt relativiert sich jedoch, wenn man die Cloud Computing-Nutzung unter dem Aspekt der Sicherheit betrachtet. Die damit einhergehenden Risiken und neuen Bedrohungen erfordern fortschrittliche Sicherheitstechnologien, um den Schutz von Unternehmensdaten gewährleisten zu können.

  • Cloud-Sicherheit: Shared Responsibility-Modell

    Viele Unternehmen setzen auf eine Kombination verschiedener Backup-Lösungen, häufig über mehrere Standorte hinweg. Im Krisenfall macht es solch eine Strategie jedoch oft schwierig, Dateien zeitnah wiederherzustellen. Dagegen bieten Cloud-integrierte Lösungen einfaches Testen der Disaster-Recovery-Strategie und im Notfall die rasche Rückkehr zum Normalbetrieb. Daten sind für Unternehmen heute wertvolle Rohstoffe und müssen besser gesichert werden als je zuvor. Gerade in Zeiten weltweiter Ransomware-Attacken ist eine profunde Backup- und Disaster Recovery-Strategie daher unabdingbar geworden, um im Krisenfall sofort reagieren zu können und die Geschäftskontinuität zu sichern.

  • DevOps: Eine Gefahr oder die Zukunft für ITSM?

    Der digitale Wandel beeinflusst die Unternehmenslandschaft stark. Auch im IT-Service-Management stehen Entscheider zahlreichen neuen Herausforderungen gegenüber. Die Verzahnung von Entwicklung und Betrieb, auch Development and Operations, kurz DevOps, spielt eine immer größere Rolle. Häufig stellen sich die Verantwortlichen jedoch eine Frage: Ist DevOps eine Gefahr oder die Zukunft des IT-Service-Managements (ITSM)? Zu den Ursachen für etwaige Bedenken zählt unter anderem die Infragestellung der Stabilität des IT-Betriebes. Angebote aus der Cloud werden mit einem Angriff auf die eigene IT gleichgesetzt und gestandene ITIL-Change-Manager können sich eine weitere Verkürzung und Vereinfachung der Prozesse nicht mehr vorstellen. Dabei lässt sich bei Betrachtung des Bereichs "Entwicklung und Betrieb von Applikationen" feststellen, dass es zahlreiche Gründe gibt, sich mit den Inhalten von DevOps zu befassen. Veränderungen im IT-Service-Management stellen dabei stets eine Notwendigkeit dar.