- Anzeige -


Sie sind hier: Startseite » Fachartikel » Hintergrund

Appliances: Engpass im Rechenzentrum?


Hardware-Appliances im Rechenzentrum: Zeit Lebwohl zu sagen
Ist es an der Zeit, sich von den letzten physischen Appliances wie Load Balancern und Web Application Firewalls zu verabschieden?


- Anzeigen -





Von Guntram Alffen, Avi Networks

Es scheint ein Widerspruch zu sein: Obwohl die meisten Unternehmen viele ihrer Anwendungen in die Cloud migrieren, erfreut sich das klassische Rechenzentrum nach wie vor großer Beliebtheit. Seit nun mehr als einem Jahrzehnt virtualisieren Unternehmen ihre Rechenzentren und führen Cloud-Technologien ein. Und sagten einige Experten vor gut zehn Jahren voraus, dass das Rechenzentrum der Zukunft vollständig in der Cloud betrieben würde, sehen wir heute, dass dies nicht eingetreten ist. Stattdessen führten Unternehmen Hybrid- und Multi-Cloud-Umgebungen ein, die ihnen die Wahl geben, ihren Anwendungen und Daten das ideale Zuhause zu geben.

Hybrid und Multi-Cloud sind der primäre Anwendungsfall unserer Zeit.
Aufgrund dieses Ansatzes, und obschon viele Unternehmen einen Teil ihrer Workloads auf externe Cloud-Provider verlagern, bleibt die lokale Infrastruktur im Rechenzentrum ziemlich fest etabliert. Die Cloud ist oft nur eine Erweiterung des Rechenzentrums, wobei die hybride Cloud der primäre Anwendungsfall unserer Tage ist. Einer der Gründe, warum das Rechenzentrum weiter fest verankert bleibt, sind die Verschärfung der Compliance-Regeln.

Vor allem in Europa hat die neue Gesetzgebung der DSGVO dazu geführt, dass Organisationen mehr Wert auf ihr eigenes Rechenzentrum legen, das einfacher abzusichern und zu kontrollieren scheint. Die Kontrolle jeder Facette der eigenen Architektur mag aufwändig klingen, aber zumindest haben Unternehmen die volle Kontrolle darüber, was mit ihren Daten passiert. Alle großen Public Cloud-Anbieter hatten in der Vergangenheit sowohl Ausfallzeiten als auch Datenverluste. Und Technologien für eine erhöhte Verfügbarkeit im Rechenzentrum sind schon seit ein paar Jahren verfügbar.

Ein weiterer Grund, warum Organisationen ihre Daten in unmittelbarer Nähe behalten wollen, ist das relativ neue Phänomen der "Data Gravity". Die Datenmenge wächst seit einiger Zeit exponentiell und wird weiter zunehmen, etwa indem die Digitale Transformation Technologien wie das Internet der Dinge oder künstliche Intelligenz ermöglicht. Das Problem mit wachsenden Datenmengen ist jedoch, dass sie fast nicht mehr zu bewegen sind. Selbst mit fortschrittlichen Netzwerktechnologien wie Glasfaser wird es nahezu unmöglich sein, größere Datensätze zur zeitnahen Verarbeitung an einen anderen Ort zu senden.

Dies hat dazu geführt, dass Unternehmen ihre Rechenleistung für die Verarbeitung von Daten in die Nähe des Standorts der Daten verlagern. Branchenschwergewichte wie Microsoft und Amazon haben bereits auf diesen Trend reagiert und bieten Azure Stack und Amazon Outpost an, die Cloud Computing-Technologie in das Rechenzentrum bringen. Ein weiteres Zeichen für diesen Trend ist die steigende Nachfrage nach Edge Computing. Edge Computing verarbeitet und speichert Daten dort, wo sie erzeugt werden, ohne dass sie zuerst verschoben werden müssen.

Natürlich würde niemand, der bei klarem Verstand ist, Workloads und Daten aus einer modernen Cloud-Infrastruktur in ein altmodisches, hardwarebasiertes Rechenzentrum verschieben. Seitdem Unternehmen jedoch auf eine softwaredefinierte Infrastruktur im Rechenzentrum umgestellt haben, um sie für Hybrid- und Multi-Clouds fit zu machen, ist es nun problemlos möglich, davon Gebrauch zu machen - und sogar Apps zurück ins Rechenzentrum zu holen. Der aktuelle Trend der Cloud-Repatriation belegt diese Entwicklung.

Aber einer der langjährigen Bewohner des Rechenzentrums passt nicht in die neue hybride und Multi-Cloud-Welt, die auf Geschwindigkeit, Flexibilität und Wahlmöglichkeiten ausgerichtet ist: die gute alte Hardware-Appliance. Zu den letzten noch vorhandenen physischen Appliances in vielen Rechenzentren gehören der Load Balancer oder die Web Application Firewall.

Appliances werden zum Engpass im Rechenzentrum.
Die Server-Virtualisierung läutete einst den Aufstieg des Software-definierten Rechenzentrums ein. Heutzutage sind die meisten modernen Organisationen größtenteils virtualisiert, was ihnen eine bessere Automatisierung und Elastizität verleiht. Dennoch setzen viele Unternehmen immer noch auf physische und virtuelle Appliances für Anwendungsdienste wie Load Balancing und WAF.

Das Ziel für Unternehmen ist es jedoch, dass Rechenzentren durch softwaredefinierte Technologie Cloud-ähnlicher werden. Aber Hardware und virtuelle Appliances bieten keine Cloud-ähnliche Funktionalität - und untergraben damit die Modernisierung. Diese Geräte befinden sich zwischen zwei Welten. Sie haben immer noch eine Funktion, die jedoch in der Vergangenheit verwurzelt ist, und funktionieren in der neuen Welt der softwaredefinierten Infrastruktur nicht wirklich gut.

Das klassische Beispiel ist der traditionelle Load Balancer. Er kann nicht auf die Cloud umsteigen, und seine Zeit läuft ab. Unternehmen ersetzen ihn im Rechenzentrum durch moderne Software-Load-Balancer, die in die flexiblere, softwaredefinierte Welt passen. Der Schritt ist längst überfällig, da Load-Balancer-Appliances inhärente Mängel aufweisen, die hauptsächlich mit ihrer begrenzten Automatisierung und Skalierbarkeit zusammenhängen - eine Disziplin, in der softwaredefinierte Technologien herausragen. Die Hardware-Appliances lediglich zu virtualisieren reicht nicht aus, da die Technologie sich nicht in die software-definierte Welt integrieren lässt.

Frei nach Mark Twain: Die Nachricht vom Tod des Rechenzentrums ist stark übertrieben. Im Gegenteil, das Rechenzentrum bleibt wo es ist, nur eben nicht so, wie wir es uns vorgestellt haben. Die Nutzung der Cloud bietet die fehlende Flexibilität und Agilität und da Unternehmen ihr eigenes Rechenzentrum nicht so schnell aufgeben werden, ist das neue Rechenzentrum eben Cloud-ähnlich. Das bedeutet, dass das Rechenzentrum neu strukturiert werden muss, um softwaredefiniert zu sein. Um dies zu erreichen, müssen Unternehmen softwaredefinierte Lösungen begrüßen und alte Hardware und virtuelle Appliances endlich dorthin schaffen, wo sie hingehören: Auf den Schrotthaufen der IT-Geschichte.
(Avi Networks: ra)

eingetragen: 23.06.19
Newsletterlauf: 12.07.19

Avi Networks: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Hintergrund

  • Herausforderungen beim Ressourcen-Management

    Wenn Menschen über Ressourcen-Management reden, beschreiben sie Funktionen, die unter die Domäne "Enterprise Resource Planning (ERP)" fallen, wie z.B. Personalmanagement oder die Beschaffung von physischen Ressourcen wie Schreibtischen. In einem Dienstleistungsunternehmen hat dieser Begriff jedoch eine andere Bedeutung, wobei individuelle Tools und Strategien erforderlich sind. Im Zusammenhang mit Dienstleistungen geht es beim Ressourcen-Management um die Ressourcen-Zuweisung - Mitarbeiter zur richtigen Zeit am richtigen Ort einzusetzen. Dies ist ein anspruchsvoller Prozess. Wird dieser richtig gemacht, wird die Zeit der Mitarbeiter in entsprechenden Projekten effektiv genutzt, wodurch die Rentabilität und das Kundenengagement verbessert werden.

  • Datenmanagement fördert Compliance

    Unabhängig vom konkreten Anlass oder Thema: Sobald Daten eine Rolle spielen, bestimmen sofort Begriffe wie "Sicherheit", "Privatsphäre" und "Datenschutz" die Diskussion. Gleichzeitig gab es allerdings seit ihrem Inkrafttreten im Mai 2018 europaweit bereits über 160.000 Verstöße gegen die Datenschutz-Grundverordnung (DSGVO). Grund genug für einen Appell, die Datenhoheit der eigenen Kunden ernster zu nehmen. Seit Oktober vergangenen Jahres ist Gaia X in der IT-Landschaft und darüber hinaus in aller Munde: Das ambitionierte Cloud Computing-Projekt des Bundeswirtschaftsministers Peter Altmaier hat es sich zur Aufgabe gemacht, eine unabhängige Dateninfrastruktur für den europäischen Raum zu schaffen. Das Ziel dahinter: mehr Sicherheit, Rechte und Vertrauen für die Nutzer, weniger Abhängigkeit von den großen internationalen Cloud-Providern.

  • Vertrauen in die Cloud wächst - oder doch nicht?

    Security first - IT-Sicherheit bleibt eine ständige Herausforderung für die IT-Verantwortlichen in den Unternehmen. Dabei spielt die Cloud eine immer wichtigere Rolle, denn einerseits verlagern die Unternehmen mehr und mehr Anwendungen ins Web. Andererseits bleiben Sicherheitsverletzungen ein Hauptziel für Datendiebstahl und DDoS-Attacken. Eine Umfrage, die Barracuda unter seinen Kunden weltweit durchführte, zeigt ein beachtliches Vertrauen der 850 befragten Sicherheitsexperten verschiedenster Unternehmensgrößen und -industrien in Public-Cloud-Bereitstellungen.

  • Warum Netzwerksichtbarkeit wichtig ist

    Laut IHS Markit, einem Dienstleister für Analysen und Informationen, entstehen Unternehmen aufgrund von Ausfällen und Leistungsverlusten ihrer Netzwerke jährlich etwa 700 Milliarden US-Dollar (circa 615 Milliarden Euro) an Mehrkosten. Das Risiko hierfür steigt, wenn Unternehmen Kosten sparen wollen und sich deshalb für eine Multi-Vendor-Strategie entscheiden, bei der sie Leistungen beim jeweils günstigen Anbieter beziehen, anstatt diese Leistungen für ihr gesamtes Netzwerk bei einem Anbieter zu beziehen. Diese Multi-Vendor-Strategie erschwert die Übersicht über das gesamte Netzwerk und erhöht so die Komplexität des Netzwerkmanagements.

  • Zusammenarbeit an einer Automotive-Cloud

    Mit einer Cloud-basierten Plattform will der Automobilhersteller Volkswagen seine Prozesse in der Fertigung optimieren. Die "Volkswagen Industrial Cloud" soll Ende 2019 verfügbar sein und wird langfristig rund 1.500 Partner in die Abläufe für Logistik und Produktion einbinden. Der Datenaustausch über die Cloud wird die gesamte Automobilindustrie ergreifen und macht es notwendig, dass alle Teilnehmer des Ökosystems in der Lage sind, ihre bestehenden IT-Systeme mit einer Industrial-Cloud zu verbinden. Auf diesen Trend sollten sich alle Marktteilnehmer schon heute vorbereiten.

  • Appliances: Engpass im Rechenzentrum?

    Es scheint ein Widerspruch zu sein: Obwohl die meisten Unternehmen viele ihrer Anwendungen in die Cloud migrieren, erfreut sich das klassische Rechenzentrum nach wie vor großer Beliebtheit. Seit nun mehr als einem Jahrzehnt virtualisieren Unternehmen ihre Rechenzentren und führen Cloud-Technologien ein. Und sagten einige Experten vor gut zehn Jahren voraus, dass das Rechenzentrum der Zukunft vollständig in der Cloud betrieben würde, sehen wir heute, dass dies nicht eingetreten ist. Stattdessen führten Unternehmen Hybrid- und Multi-Cloud-Umgebungen ein, die ihnen die Wahl geben, ihren Anwendungen und Daten das ideale Zuhause zu geben.

  • Cloud-gestützte Sicherheitsmechanismen

    Cloud Computing-Lösungen sind auch im IT-Security-Bereich zunehmend verbreitet. Viele Anbieter verlagern Sicherheitsmechanismen und andere Dienste in ihre Rechenzentren, anstatt diese auf klassische Weise bei den Kunden vor Ort (On-Premises) zu betreiben. Doch ist die Anti-Malware-Lösung aus der Cloud tatsächlich die geeignete Variante für jeden Anwendungsfall? Und wo genau liegen eigentlich die möglichen Vor- und Nachteile des Virenschutzes aus der Wolke? Die IT-Sicherheits-Experten von Tabidus Technology nennen drei gute Gründe für die Cloud. Im Gegenzug weisen sie aber auch auf drei problematische Aspekte hin, die Unternehmen und IT-Verantwortliche unbedingt im Auge behalten sollten.

  • Cloud Computing ist Mainstream in der IT

    "Die Wolke" ist in der Unternehmens-IT deutscher Unternehmen angekommen. Auch hierzulande profitieren Firmen jeder Größe von niedrigeren Kosten bei größerer Skalierbarkeit und Zuverlässigkeit. Die Verantwortung für die Sicherheit ihrer Daten sollten Unternehmen jedoch nicht in die Hände von Cloud-Providern legen. Der Datenverschlüsselung und der Kontrolle über die Verschlüsselungs-Keys kommt in heterogenen IT-Landschaften besondere Bedeutung zu. Denn im Ernstfall ist Verschlüsselung die letzte Feste der IT-Security.

  • Vorteile von Security-as-a-Service

    Security-as-a-Service wird bei Großunternehmen und KMU immer beliebter: Die sich ständig erweiternde Bedrohungslandschaft und der Mangel an Fachkräften führt zur zunehmenden Akzeptanz von IT-Sicherheit als Dienstleistung. Denn der Arbeitsmarkt bleibt angespannt, in Deutschland gibt es laut Bitkom 82.000 offene Stellen für IT-Spezialisten, und die Nachfrage nach Sicherheitsexperten steigt branchenübergreifend. Für viele Unternehmen ist deshalb eine Auslagerung von Management, Implementierung und Überwachung des komplexen Security-Bereichs eine sinnvolle und kosteneffiziente Investition, um ihre internen IT-Ressourcen zu entlasten und zugleich ihr Sicherheitsprofil zu schärfen.

  • Einblick in jede Cloud-Instanz haben

    Die Vielzahl an Cloud Computing-Services eröffnet zahlreiche Möglichkeiten, einzelne Geschäftsprozesse zu optimieren. Die richtige Cloudstrategie hat sich damit längst zu einem Wettbewerbskriterium entwickelt. Viele Unternehmen setzen auf eine Multicloud-Strategie, um bei eventuellen Ausfällen den Geschäftsbetrieb aufrechterhalten zu können und nicht von nur einem Anbieter abhängig zu sein. Die Nutzung von Cloudservices sollte umfassend geplant werden. Bei lediglich punktuellen Migrationen einzelner Prozesse besteht das Risiko, dass das Optimierungspotential nicht vollständig genutzt wird. Doch neben dem Faktor Performance hat auch die Datensicherheit mittlerweile geschäftskritische Relevanz erreicht. Regulatorische Standards sollten daher frühzeitig in das Multicloud-Konzept einfließen, die Auswahl der Anbieter mitbestimmen und durch geeignete Sicherheitsmaßnahmen flankiert werden.