- Anzeige -


Sie sind hier: Startseite » Markt » Hintergrund

Entwicklung hin zu Hybrid-Architekturen


Rechenzentrums-Trends 2020: Hybrid-Computing wird Mainstream
Bereitstellungsgeschwindigkeit wird zu einem immer wichtigeren Alleinstellungsmerkmal

- Anzeigen -





Während in den vergangenen Jahren vor allem innerhalb der Unternehmensführungen ausgiebig darüber diskutiert wurde, ob nun Cloud oder "On Premise" die bessere Wahl ist, haben sich mittlerweile hybride Architekturen durchgesetzt, die Public- und Private-Cloud-Modelle mit Edge-Infrastrukturen rund um neu gestaltete zentrale Rechenzentren vereinen. Diese im Wandel befindliche Herangehensweise an das Management von Daten und Computing-Ressourcen ist einer der fünf wichtigsten Rechenzentrums-Trends 2020, die Experten von Vertiv, einem weltweiten Anbieter für IT-Infrastruktur- und Continuity-Lösungen, identifiziert haben. Die Entwicklung hin zu Hybrid-Architekturen erlaubt es Unternehmen, die Kontrolle über sensible Daten zu behalten und gleichzeitig die rapide wachsenden Anforderungen an Kapazität und Rechenleistung auf Kundenseite zu erfüllen. Nachdem Konnektivität und Verfügbarkeit gemeinsame Konzepte in diesem neuen Daten-Ökosystem werden, wird in Zukunft der Fokus verstärkt auf die nahtlose Kommunikation zwischen On-Premise-Ressourcen, der Cloud und dem Netzwerkrand – dem "Edge" – gelegt werden.

Rob Johnson, CEO von Vertiv, erklärt: "In der Rechenzentrums-Branche stellt sich aktuell ein neues Gleichgewicht ein. Der Markt kämpft mit Herausforderungen hinsichtlich Kapazität und fortschrittlichen Anwendungen, die maßgebliche Veränderungen in Rechenzentren aller Größe und Form erfordern. Gleichzeitig wird die Bereitstellungsgeschwindigkeit immer wichtiger für Technologieentscheidungen und wird auch über 2020 hinaus Investitionen und Innovationen in diesem Bereich bestimmen. Das wird sich auf viele verschiedene Arten zeigen, aber die Botschaft an Rechenzentrums-Ausrüster ist klar: Der Status Quo ist nicht akzeptabel."

Im Nachfolgenden die Trends, die Vertiv für das neue Jahr identifiziert hat:

1. Hybride Architekturen werden Mainstream:
Während Cloud-Computing auch weiterhin ein wichtiger Bestandteil in den IT-Strategien der meisten Unternehmen sein wird, sehen wir einen Wandel der Strategie dahingehend, dass Unternehmen ihren IT-Mix und ihre Ausgaben auf die Anforderungen ihrer Anwendungen anpassen. Dies führt zu einem ‚Mehr‘ an hybriden Architekturen und zeigt klar, dass das hauseigene Rechenzentrum nach wie vor sehr wichtig ist – auch wenn sich seine Rolle ändert und einen Mix reflektiert, der modernen Unternehmen das Beste zweier Welten bietet.

2. Bereitstellungsgeschwindigkeit ist das neue Wettrüsten: Die Leistung von Technologien und Systemen pendelt sich langsam auf einem hohen Level ein, große Veränderungen sind hier nicht mehr zu erwarten. Das bedeutet, dass die IT- und Rechenzentrums-Entscheider verstärkt andere Kriterien ansetzen bei der Auswahl des Equipments. Der Kostenfaktor ist dabei nach wie vor ein wichtiges Kriterium, aber mehr und mehr wird die Entscheidung davon abhängen, wie hoch die Bereitstellungsgeschwindigkeit tatsächlich ist. Wenn alle anderen Faktoren eng beieinander liegen, kann jeglicher Geschwindigkeitsvorteil bei der Bereitstellung und Aktivierung von IT-Ressourcen entscheidend sein. Das gilt besonders dann, wenn die Rechenleistung in den verteilten Netzwerken von heute immer stärker Richtung Edge wandert, wo Verzögerungen bei der Bereitstellung gleichzusetzen sind mit dem Ausfall einer Anwendung – und damit fehlendem Umsatz.

3. Die durchschnittliche Rack-Dichte bleibt gleich, aber…: Auch wenn sich die durchschnittliche Rack-Dichte vermutlich nur minimal verändern wird – zunehmend anspruchsvollere Anwendungen und immer mehr Workloads mit Bezug zu künstlicher Intelligenz (KI) wie beispielsweise Machine Learning oder Deep Learning erfordern immer mehr High-Performance-Computing (HPC)-Komponenten. Experten von Vertiv erwarten, dass hier gerade zu Beginn des Jahres vor allem in den Bereichen Verteidigung, Advanced Analytics sowie Fertigung aufgerüstet wird, was den Grundstein legt für eine breitere Implementierung von HPC-Racks im Jahr 2021 und darüber hinaus. Diese Racks machen aktuell nur einen Bruchteil aller Racks aus, aber sie können nichts desto trotz außergewöhnlichen Herausforderungen bei Kühlung und Stromversorgung mit sich bringen. So ist beispielsweise die wachsende Nachfrage nach direkten Flüssigkühlsystemen eine Konsequenz dieser Anforderungen.

4. Batterien machen sich bezahlt: Bereits 2016 sagten Vertiv-Experten voraus, dass Lithium-Ionen (LI)-Batterien ihren Platz in Rechenzentren finden würden. Dies hat sich mittlerweile bewahrheitet und LI-Batterien haben einen signifikanten Anteil am Markt der unterbrechungsfreien Stromversorgungen. Dieser Marktanteil wächst immer weiter und wird sich auch auf den Edge-Einsatz ausdehnen, wo vor allem die geringere Größe und der geringere Wartungsbedarf zum Tragen kommen. Im nächsten Schritt geht es nun darum, dass die Flexibilität der LI- und anderer kommender Batteriealternativen wie beispielsweise TPPL (Thin plate pure lead – übersetzt: Dünnplatten-Reinblei) ihre im Vergleich höheren Kosten ausgleicht. 2020 wird das Jahr sein, in dem immer mehr Unternehmen gespeicherten Strom zurück an die Stromanbieter verkaufen und so zur Stabilisierung der Netze und dem Ausgleich von Spitzenlasten beitragen werden. Das wird ein wichtiger Bestandteil weitreichender Diskussionen rund um die Nachhaltigkeit in der Rechenzentrumsbranche sein.

5. Globale Wechselbeziehungen: Die USA – vor allem das Silicon Valley – waren lange das Epizentrum der digitalen Welt und der aktuellen Generation der Rechenzentrums-Entwicklungen. Aber Innovation geschieht überall. So ensteht gerade ein paralleles digitales Ökosystem mit entscheidenden Unterschieden in China. Rechenzentren in ganz Europa und in anderen asiatischen und südpazifischen Märkten wie zum Beispiel Australien, Neu-Seeland oder Singapur entwickeln sich weiter und rücken aufgrund von regionalen Gegebenheiten von traditionellen Praktiken ab – vor allem wegen der Herausforderungen bei Datenschutz und Nachhaltigkeit. So sorgt beispielsweise die EU-Datenschutzgrundverordnung weltweit dafür, dass überall schwierige Entscheidungen zur Datenhaltung getroffen werden müssen. Solche und ähnliche Herausforderungen sind der Grund dafür, warum die Bedeutung von Hybrid-Architekturen und On-Premise-Computing beziehungsweise -Datenspeicherung überdacht wird.

Oder ein anderes Beispiel, wie man global voneinander lernt: In China haben einige Rechenzentren ihre entsprechend angepassten Server mit 240 Volt DC-Strom laufen lassen, um die Effizienz zu erhöhen und die Kosten zu senken. (In China und vielen anderen Ländern gibt es keine 230 Volt DC-Stromversorgung wie in Deutschland.) Für Rechenzentren in den USA ist eine 240 Volt DC-Stromversorgung seit langem ein theoretisches Ziel und es ist nur logisch, dass in anderen Teilen der Welt das neue Model, das China hier heute fährt, übernommen wird.

"Während noch bis vor kurzem die Cloud der Trend für das Datenmanagement war, sehen wir mittlerweile eine Entwicklung hin zu einem hybriden Aufbau mit On-Premise- und Cloud-Anteilen gleichermaßen", so Reinhard Purzer, Vice President & Managing Director DACH, Vertiv. "So sind Unternehmen flexibler und können den gestiegenen gesetzlichen Anforderungen von Datenschutzseite auf der einen und der immer notwendigeren Flexibilität und Skalierbarkeit auf der anderen Seite Rechnung tragen – und sind perfekt gerüstet für die Zukunft." (Vertiv: ra)

eingetragen: 09.02.20
Newsletterlauf: 18.03.20

Vertiv: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>


Meldungen: Hintergrund

  • Die Cloud ist bereits der Standard

    Schon längst nutzen die meisten Unternehmen flexible Cloud-Technologien, um ihre IT zu modernisieren. Die Cloud Computing-Angebote sind mittlerweile schon so weit ausgereift, dass viele Organisationen sogar eine "Cloud-First"-Strategie folgen. Das heißt, dass sie von vorneherein eher Cloud Computing-Dienstleistungen nutzen, anstatt eigene Systeme anzuschaffen. Die meisten Unternehmenslenker und IT-Manager wähnen sich bei ihren Bemühungen zur Modernisierung mit dieser Strategie auf der sicheren Seite. Beim genauen Hinsehen fällt jedoch auf, dass der Schritt in die Cloud gut vorbereitet sein muss, damit Organisationen nicht veraltete Prozesse mit in die Cloud nehmen - und somit einen Teil der gewünschten Verbesserungen zunichte machen.

  • Cloud-Services: Basis für digitale Transformation

    Quo vadis, IT? Der Buzzwords-Dschungel ist auch in diesem Frühjahr ziemlich dicht. Doch welche Trends sind für Unternehmen unmittelbar relevant? Ana Campos und Gerald Klump, Co-CEOs von Trivadis, haben die Antworten. Hochautomatisierte Datenplattformen, IT als Innovationspartner, Everything-as-a-Service, Trend-Radar als Kompass und Agilität im ganzen Ökosystem - das waren die Trivadis IT-Trends 2019. Für 2020 hat das IT-Dienstleistungsunternehmen diese Trends aktualisiert und weiterentwickelt. Sie stehen auch in diesem Jahr nicht für sich allein. Erst in Kombination können die beschriebenen Technologien bestmöglich genutzt werden: 2019 identifizierte Trivadis bereits den Trend zur Automatisierung, insbesondere von Datenplattformen. Dieser Trend wird sich in Form von Hyperautomatisierung noch weiter verstärken. Darunter versteht man die Erweiterung bestehender Automatisierungsfunktionen - etwa in Form von Robotic Process Automation (RPA) - um Technologien wie künstliche Intelligenz (KI) und maschinelles Lernen (ML). Auch für Gartner ist Hyperautomatisierung der wichtigste Technologie-Trend 2020. "Mit Hyperautomatisierung können insbesondere sich wiederholende Prozesse ohne menschliches Zutun effizient abgewickelt werden, so zum Beispiel in der Software-Entwicklung. Dies gibt Mitarbeitenden mehr Freiraum, sich um kreative oder komplexe Aufgaben zu kümmern - was das Unternehmen letztlich wettbewerbsfähiger macht", erklärt Ana Campos.

  • Gründe für Data-Warehouse-Modernisierung

    WhereScape stellt die Ergebnisse einer weltweiten Studie des Business Application Research Center (BARC) zum Thema "Modernisierung des Data Warehouse: Herausforderungen und Vorteile" vor. Im Rahmen der Umfrage wurden 368 Nutzer aus einem breiten Spektrum verschiedener Positionen, Branchen und Unternehmensgrößen zu den wichtigsten Trends für die Modernisierung des Data Warehouse befragt. Diese Modernisierung steht bei vielen der Befragten (39 Prozent) hoch auf der Prioritätenliste, um der zunehmenden Komplexität der Datenlandschaft entgegenzuwirken und ihre Infrastruktur und internen Prozesse agil halten zu können. Als der wichtigste Modernisierungsansatz des Data Warehouse- und ETL wird die Automatisierung angesehen. 60 Prozent der Befragten sehen sie als wichtigste Maßnahme zur Modernisierung des Data Warehouse an.

  • KI und Machine Learning spielen wichtige Rolle

    Die Digitalisierung schreitet unaufhaltsam voran, die Datenmengen vervielfachen sich und immer mehr Daten sollen nicht nur einfach gespeichert, sondern auch analysiert werden. Damit Unternehmen auch in naher Zukunft den Wert der Daten noch voll ausschöpfen können, sollten sie bei der gegenwärtigen Storage-Technik stets mithalten und diese Trends berücksichtigen: Ein Hemmschuh für die Modernisierung von Speicher-Infrastrukturen ist häufig das hardwarezentrierte Denken. Daten liegen meistens auf diskreten Speichersystemen, die nur bedingt oder gar nicht kompatibel zueinander sind. So eine Heterogenität führt zu Problemen bei der Datenmigration sowie zu Verwaltungs- und Kostenineffizienz. Heutzutage befreit Software-Defined Storage (SDS) die IT von dieser Abhängigkeit. SDS-basierte Lösungen können mehrere Arten von Speichern, Anbietern, Protokollen und Netzwerkschnittstellen abstrahieren. Speichern ist dann einfach Speichern und keine komplexe Kompatibilitätswissenschaft mehr.

  • Enterprise Applications in der Cloud

    Enterprise Applications sind das Herz der Unternehmens-IT. Sie bilden die wichtigen Geschäftsprozesse ab, sammeln dafür geschäftskritische Daten und werten diese aus. Priorität hat daher die Sicherheit und Integrität der Daten. Diese dürfen beim Speichern, Archivieren und Transport zwischen den Systemen für Enterprise Resource Planning (ERP), Customer Relationship Management (CRM), Contract Lifecycle Management (CLM) oder Product Information Management (PIM) nicht verloren gehen. Deshalb müssen Unternehmensanwendungen hochverfügbar sein. Um die hohen Qualitätsansprüche von Enterprise Applications an das Datenmanagement zu gewährleisten, fordern viele Hersteller eine Zertifizierung von Storage-Lösungen für diesen Anwendungsfall. Aktuelle Entwicklungen erhöhen zudem die Anforderungen, um Enterprise Apps schnell den nötigen Datenzugriff zu verschaffen.

  • Fünf Trends, die die Sourcing-Strategie bestimmen

    Der Einsatz von Cloud Computing ist im Jahr 2020 gelebte Praxis. Aufgrund der Einfachheit und Skalierbarkeit solcher Angebote stellen sich immer mehr Mittelständler und Konzerne die Frage, ob sie weiter inhouse das Rechenzentrum betreiben oder Dienste in die Cloud auslagern wollen. Wichtige Aspekte bei solchen Prozessen sind die Berücksichtigung von IT-Sicherheit und die Wahrung der digitalen Souveränität. Für den ITK-Service-Provider Pfalzkom sind aber auch Cybersicherheit, Edge Computing, hybride Architekturen, Nachhaltigkeit sowie der War for Talents wichtige Themen, die den Markt in den kommenden Jahren verändern werden.

  • Cloud-Trends in der Energieversorgung

    Der prognostizierte globale Stromverbrauch soll in den nächsten Jahren immens ansteigen. Dies stellt Energieversorger vor ungeahnte Herausforderungen. Dennis Martin, Experte bei der metalogic GmbH in München, gibt einen Ausblick, wie smarte, Cloud-basierte Lösungsansätze die gesamte Energiebranche revolutionieren. metalogic ist Marktführer im jungen Markt für Forecasting-as-a-Service Lösungen und Managed Prognose Services, zuletzt konnte die Firma einen der sogenannten Big-Six der britischen Energieversorger als Kunden gewinnen. Von den vielen Faktoren, die den Stromverbrauch beeinflussen werden, sind vier als besonders relevant herauszustellen. Erstens die hohe Mobilität und der gestiegene Umfang der Kommunikation. Nur ein Beispiel: Der neue Funkstandard 5G soll den Stromverbrauch in den nächsten vier Jahren um bis zu 3,8 Milliarden Kilowattstunden in die Höhe treiben. Zweitens Industrie 4.0, mit all ihren Transformationsprozessen in den Bereichen Design (CAE, CAD), Produktion (zunehmender 3D-Druck-, Robotereinsatz und Produktionsprozesse) oder der IT-gestützten Steuerung und Logistik. Drittens: der Umstieg von fossilen Brennstoffen auf batteriebetriebene Fahrzeuge. Schlussendlich das Internet an sich ? Schnittstelle bei der Verknüpfung der meisten modernen Anwendungen und Knotenpunkt für das wirtschaftliche und geopolitische Wachstum, aber eben auch einer der größten Stromfresser unserer Zeit.

  • Wachsende Menge an Cloud-Dienstleistungen

    Managed-Service-Provider sind gezwungen, ihre Rolle grundlegend neu zu definieren, meint IT-Dienstleister Consol. Nur so werden sie im Spannungsfeld von großen Cloud-Playern und veränderten Kundenanforderungen überleben können. Der Cloud Computing-Markt hat in den letzten Jahren einen massiven Wandel vollzogen. Große Player wie Amazon, Google oder Microsoft nehmen eine dominierende Rolle ein und die Kunden stellen neue, höhere Anforderungen an Cloud-Angebote. Damit und mit dem Einzug von DevOps und agilen Methoden haben sich die Rahmenbedingungen für den Betrieb im Allgemeinen und für Managed-Services im Besonderen grundlegend geändert. Auf diese Veränderungen muss auch ein Managed-Service-Provider reagieren, um seine Marktposition zu behaupten.

  • Bedeutung umfassender Transparenz für Apps

    Domino's Pizza wird immer beliebter. Ein Grund dafür ist, dass Kunden nach ihrer Bestellung den gesamten Prozess in der App verfolgen können: Wann wird die Pizza zubereitet, wann in den Ofen geschoben, in eine Schachtel verpackt oder im Lieferauto eingeladen. Schließlich kann der Kunde dem Boten schon die Tür öffnen, bevor dieser klingelt. Denn er weiß genau, wann die heiße Pizza ankommt. Obwohl eine solche Nachverfolgung für eine Pizza- oder Paketlieferung heute möglich ist, erreichen viele Unternehmen noch nicht den gleichen Grad an Sichtbarkeit für ihre geschäftskritischen Anwendungen. Warum ist das so?

  • Secure Access Service Edge (SASE)

    Vor nicht allzu langer Zeit noch wurden die Begrifflichkeiten der Cloud-Sicherheit und der Security Cloud oftmals in einen Topf geworfen und miteinander vermischt. Trotz eines gravierenden Unterschieds. War von Cloud-Sicherheit die Rede, wurde ebendiese der Wolke oftmals abgesprochen - es schwang immer ein gewisses Unbehagen mit der sicheren Datenvorhaltung in der Cloud mit. Die Security-Cloud im Unterschied dazu dient gerade der Sicherheit. Denn dabei wird die Funktionalität von Hardware-Appliances in die Cloud verlagert und den Kunden als Service zur Verfügung gestellt. Heute hat die Cloudifizierung auf breiter Front in Unternehmen Einzug gehalten und die Diskussionen um die Cloud-Sicherheit sind angesichts der Vorteile und Entwicklungen verstummt. Da es oftmals sogar die Anwendungen sind, die den jeweiligen Cloud Computing-Anbieter, wie AWS, Google oder Azure auf der Grundlage ihrer spezifischen Anforderungen vorgeben, sind Multicloud-Umgebungen längst auf der Tagesordnung in Unternehmen.