- Anzeige -


Sie sind hier: Startseite » Markt » Hintergrund

Gefragt sind elastische IT-Strukturen


Datacenter-Trends 2017: Starre Rechenzentren sind angezählt
Bei Hyper-Converged-Infrastrukturen liegt der Management-Schwerpunkt also nicht auf der Ebene der IT-Komponenten, sondern auf der Ebene der Applikation und der virtuellen Maschine

- Anzeigen -





Von Michael Ganzhorn, Business Unit Leiter IT Infrastructure bei Axians IT-Solutions

Das traditionelle Rechenzentrum wird auch 2017 weiterlaufen – ohne Frage. Der Spagat zwischen Herausforderungen, Anwenderwünschen, Schatten-IT und Kostendruck wird jedoch immer größer und durch hyperkonvergente Infrastrukturen gelöst. Die Zuteilung von Speicher- und Netzwerkressourcen per Software ist weiter auf dem Vormarsch.

Wie lässt sich das klassische Rechenzentrum modernisieren, damit Unternehmen die Digitalisierung meistern können? Diese Frage beantworten bereits heute virtuelle Server und Speicher. Nun steht die nächste Entwicklungsstufe vor dem Durchbruch: das Software-Defined Datacenter (SDDC). Das SDDC zeichnet sich durch hyperkonvergente Infrastrukturen und Ansätze aus, bei denen die Software vollständig virtualisierte Komponenten managt. Hintergrund für die Überführung von Hardware- zu Software-gesteuerten Rechenzentren ist der Druck, der auf der IT lastet. Sie muss eine weiterhin leistungsstarke Performance unter immer schärferen Bedingungen sicherstellen.

Gefragt sind im Rechenzentrum der Zukunft elastische IT-Strukturen, die sich an den steigenden und wechselnden Bedarf der Unternehmen anpassen. Modular aufgebaute, immer günstigere Hardware bildet dabei nach wie vor die Basis. Auf ihr setzt eine flexible und intelligente Software auf, die die Ressourcen auf allen Ebenen vom Server über Storage bis zum Netzwerk zuweist – ganz nach Bedarf. Mehr noch: Damit die IT mit schwindendem Budget ihre Ziele erreichen kann, muss sie die Hardware effizienter auslasten.

Wachsende Pflichtenhefte drängen auf Modernisierung im Rechenzentrum
Um den geeigneten Rahmen für eine performante IT zu bieten und für die Zukunft gerüstet zu sein, müssen heutige Rechenzentren zusätzlich Aspekte wie Datensicherheit, Kosteneffizient, volle Skalierbarkeit und die Verfügbarkeit von Daten und Systemen in sich vereinen. Es reicht nicht aus, nur die aktuellen Pflichtanforderungen zu erfüllen.

Das Argument, dass eine Modernisierung des Rechenzentrums zu teuer sei, lässt sich übrigens widerlegen: Meist entfallen nur 25 Prozent der Kosten auf die Anschaffung. Der Betrieb der IT-Systeme verbraucht die restlichen 75 Prozent. Zudem benötigt die neue Hardware weniger Platz, Strom und Kühlung.

Entkopplung von der Hardware beschleunigt Infrastruktur-Einrichtung
Moderne integrierte Systeme unterteilen sich in Converged und Hyper-Converged Infrastrukturen. Konvergente Systeme bestehen aus einzelnen Hardwarekomponenten für Server, Speicher und Netzwerkinfrastruktur, die von Experten gesteuert und verwaltet werden können. Die Komplexität bleibt jedoch sichtbar und steigt beim Erweitern an. Im Gegensatz dazu lassen sich sogenannte Hyper-Converged Infrastructure Appliances (HCIA) komfortabel über nur eine Management-Konsole verwalten. Es dauert nur wenige Tage, eine komplette Infrastruktur auf dieser Basis einzurichten. Die Hersteller geben an, dass IT-Fachleute HCIAs schon innerhalb einer Stunde für den Betrieb bereitstellen können und die Projekt-Praxis bestätigt dies in aller Regel. Das kommt dem immer weiter steigenden Zeitdruck in den IT-Abteilungen sehr entgegen.

Auch Serviceanbieter nutzen das Baukastenprinzip, um aus Standardkomponenten hyperkonvergente Infrastrukturen aufzubauen. Der Software Layer (wie Virtual SAN von VMware oder Scale IO von EMC) virtualisiert den Speicher (Software-Defined Storage) und bildet im Zusammenspiel mit einem Hypervisor die Grundlage für einen Betrieb als HCIA.

"In-a-Box"-Systeme spielen ihre Stärken auf zwei Rack-Höheneinheiten aus
Das Besondere: Hyperkonvergente Lösungen benötigen im Rechenzentrum nur zwei Rack-Höheneinheiten. Dadurch können Anwender die Infrastruktur schnell um ein zusätzliches Gerät ergänzen. Ihre Stärken spielen Hyper-Converged-Lösungen darüber hinaus in Niederlassungen und Filialen ohne IT-Personal aus. Genauso gut bewährt haben sich das "In-a-Box"-System für virtuelle Desktop-Infrastrukturen (VDIs) oder Hochverfügbarkeitslösungen mit mehreren verteilten Knoten.

Bei Hyper-Converged-Infrastrukturen liegt der Management-Schwerpunkt also nicht auf der Ebene der IT-Komponenten, sondern auf der Ebene der Applikation und der virtuellen Maschine. Dies bedeutet: Es gibt keine Silos von unabhängigen IT-Komponenten und keine Notwendigkeit, einzelne Geräte zu verwalten. Die resultierende einfache und flexiblere IT-Infrastruktur beschleunigt den Einsatz der Ressourcen und kann die Betriebskosten erheblich senken.

Integration und transparente Verrechnung der IT-Ressourcen vorantreiben
Entscheidend ist, ob es auch in Zukunft gelingt, optimale Bedingungen für eine leistungsstarke IT zu schaffen. Bereits jetzt arbeitet die Software im Hintergrund und automatisiert Arbeitsabläufe, die IT-Fachkräfte sonst manuell steuern müssten. Das verschlankt und beschleunigt IT-Prozesse, während das System Monitoring- und Reporting-Aufgaben bewältigt. Außerdem sind Zusatzfunktionen wie Showback oder Chargeback für eine Integration aller IT-Ressourcen möglich.

Sicherheit ist ein zunehmend wichtiger Faktor
Ein SDDC bietet auch beim wichtigen Aspekt der Infrastruktur- und Systemsicherheit neue und bessere Möglichkeiten der Absicherung, zum Beispiel durch Micro-Segmentation und den damit verknüpften Sicherheitstechnologien. Sicherheitsrichtlinien können automatisch und dynamisch auf Systemanpassungen angewendet werden und agieren nicht nur auf der Perimeterschicht, sondern auf allen Virtualisierungsebenen.

IoT und Industrie 4.0 fordern Flexibilität
Schließlich sind die agilen IT-Strukturen in der Lage, schnell auf sich ändernde Geschäftsanforderungen zu reagieren und können individuell an eine gegebene Infrastruktur angepasst werden. Vor allem neue Trends in der Industrie wie Internet of Things und Industrie 4.0 stellen neue Anforderungen an die IT bezüglich Integration, Analyse, Security und Komplexität.

Erfahrene Dienstleister wie Axians IT Solutions binden die Technologien in die bestehende Infrastruktur von Unternehmen ein. Dafür integrieren sie Applikationen, Hypervisor, Server, Netzwerk und Storage immer auch unter dem Gesichtspunkt der IT Security und wappnen Anwender mit ihren Lösungen gegen Verlust, Frust und Finanzdruck.

Der Autor:
Michael Ganzhorn startete seine IT-Karriere als Intranet Architekt bei der heutigen Finanzinformatik. Danach war er bei Sun Microsystems in verschiedenen Positionen tätig, zuletzt als Consulting Leiter Software and Security. 2010 wechselte er zu Axians IT Solutions (ehemals Fritz & Macziol), wo er in der Rolle des Business Unit Leiter das IT-Infrastruktur-Geschäft verantwortet.
(Axians IT Solutions: ra)

eingetragen: 10.01.17
Home & Newsletterlauf: 20.01.17

Axians: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Hintergrund

  • Google-Infrastruktur als Täterumfeld

    Fast 60 Millionen Angriffs-Mails via Microsoft 365 und 90 Millionen via Google - das ist die erschreckende Bilanz, die der US-Cybersecurity-Spezialist Proofpoint jetzt nach einer Analyse der Cyberbedrohungen für 2020 veröffentlicht hat. Cyberkriminelle nutzen ganz offensichtlich die umfangreiche Funktionalität und nahezu grenzenlose Skalierbarkeit von Diensten wie Microsoft 365, Azure, OneDrive, SharePoint, G-Suite und Firebase Storage um digitale Angriffe auszuführen. Mehr als ein Viertel davon (27 Prozent) liefen über den Google-Mail-Service Gmail. Da es sich hier ausschließlich um eine Analyse von Angriffen handelt, die auf Kunden von Proofpoint abzielten, ist der tatsächliche Wert kaum zu ermitteln. Der Trend ist jedoch ungebrochen, im ersten Quartal 2021 wurden bereits mittels Microsoft 365 sieben Millionen gefährliche Nachrichten verbreitet und im Falle weiterer 45 Millionen nutzten die Täter die Google-Infrastruktur. Das Volumen gefährlicher Nachrichten, die mittels dieser in der Wahrnehmung vieler doch sehr vertrauenswürdigen Cloud-Dienste versendet wurden, übertraf dabei sogar das aller Botnets im Jahr 2020. Da die Angreifer hierzu eben auch Domains wie "outlook.com" und "sharepoint.com" nutzen, die bisher häufig als seriöse Quelle galten, wird die Erkennung von Attacken immer schwieriger.

  • Der Mainframe im neuen Normal

    Auch im Jahr 2021 stehen Mainframes im Zentrum des Geschehens. Trotz technologischer Fortschritte bleiben sie geschäftskritisch, denn sie überzeugen mit Leistungsfähigkeit und Zuverlässigkeit. Im Rahmen der fortschreitenden Transformation, die auch vor dem Mainframe nicht Halt macht, müssen Unternehmen nun dessen Sicherheit in den Fokus rücken. Que Mangus, Product Marketing Manager for Application Modernization and Connectivity bei Micro Focus, gibt tiefere Einblicke in die Bedeutung des Mainframes. Mainframes bleiben das Herzstück von Enterprise Computing. Laut Zahlen von IBM laufen 55 Prozent aller Enterprise-Application-Transaktionen auf dem Mainframe. Zusätzlich befinden sich, laut IBM, 80 Prozent der weltweiten Unternehmensdaten auf Mainframe-Computing-Plattformen oder stammen von diesen. Oftmals geht es dabei um sensible Informationen, wie etwa personenbezogene Daten. Diese gilt es, gemäß der im Mai 2018 eingeführten Datenschutzgrundverordnung (DSGVO), zu schützen.

  • MSPs müssen hybride Cloud-Lösungen bereitstellen

    Eines der heißesten Themen im Netzwerkbereich ist das Secure Access Service Edge (SASE)-Modell, ein von Gartner konzipiertes architektonisches Framework, das eine Roadmap zur Transformation von Legacy-WAN hin zu einem Cloud-verwalteten Edge beschreibt: SASE kombiniert WAN-Edge-Funktionen mit aus der Cloud bereitgestellten Sicherheitsfunktionen. Gute MSP-Servicebereitstellungsmodelle sind bereits auf die maßgeschneiderte Natur von integriertem SASE abgestimmt. MSPs können so Managed Services nach Bedarf definieren, verfeinern und bereitstellen, was Kosteneffizienz und Skalierbarkeit ermöglicht. Viele werden jedoch ihre siloartigen Organisationsstrukturen umgestalten müssen.

  • Cloud ist stark auf Kernprozesse fokussiert

    Cloud-Lösungen sind nichts Neues, bei SAP werden diese immerhin seitmehreren Jahren angeboten. Doch so wirklich wollten sich deutsche Unternehmen bisher nicht von ihren "On-Premise" Installationen verabschieden. Die vorherrschende Meinung: Cloud Computing-Lösungen können einfach nicht leisten was eine firmeneigene Software schafft. Während dies zu Beginn in Teilbereichen auch stimmte, offenbart die Cloud zunehmend ihre Stärken. Vor allem der "immer und überall" Zugang für Mitarbeiter, Partner und Dienstleister sowie die schnelle und effiziente Implementierung hat im vergangenen Pandemie-Jahr zunehmend an Bedeutung gewonnen. Aber auch die stetige Weiterentwicklung in Richtung künstliche Intelligenz und Automatisierung sprechen immer mehr für die Cloud. Für Unternehmen gibt es derzeit reichlich gute Gründe um im Rahmen ihrer Digitalisierungsstrategie über einen Umstieg von internen Softwarelösungen über Cloud-Lösungen nachzudenken. Für Geschäftsführung und Aktionäre steht dabei meist die Kostenminimierung im Vordergrund. Denn durch Cloud-Hosting lässt sich die Softwarestruktur effizienter betreiben und Veränderungen des Geschäftsmodells können direkt skaliert werden. Während diese Flexibilität die letzten Jahre keinen großen Stellenwert hatte, ist sie aktuell zu einem Haupttreiber für Cloud-Lösungen geworden.

  • Open Banking - Bankgeschäfte überall

    Moderne Cloud-Technologien bieten ein enormes Potential für Finanzunternehmen. Das Beraterhaus Deloitte geht davon aus, dass im Jahr 2030 Cloud Banking eine zentrale Rolle in der Finanzbranche einnimmt. Der Umstieg auf eine Cloud-Lösung bringt jedoch auch Herausforderungen mit sich. Verantwortliche müssen dabei zahlreiche Datenquellen mit unterschiedlichen Formaten und Protokollen kombinieren. Zusätzlich setzen sich die Datenquellen aus verschiedenen Cloud-Diensten von unterschiedlichen Anbietern, bestehenden On-Premises-Quellen und Software-as-a-Service (SaaS)-Anwendungen zusammen. Mit Datenvirtualisierung können Daten reibungslos und ohne Downtime in die Cloud migriert werden. So wird der tägliche Betrieb nicht beeinträchtigt und das Risiko für das Unternehmen maßgeblich minimiert. Die Technologie bietet einen einheitlichen Layer, der alle Daten integriert und zugänglich macht. Da die Datenquellen von den Datenkonsumenten und Analyse-Tools entkoppelt sind, merken die Daten-Nutzer nichts davon, wenn die IT-Abteilung die Daten "im Hintergrund" in die Cloud migriert.

  • Warum eine Datenstrategie eine gute Idee ist

    Nutzer wollen wissen, was mit ihren Daten geschieht und wie diese verwendet werden. Die in diesem Zusammenhang von der Bundesregierung erarbeitete Datenstrategie versucht einen Rahmen für die Herausforderungen der Digitalisierung und der damit verbundenen Datenanalyse zu schaffen. Inwiefern eröffnet sie damit Chancen und in welchen Bereichen gibt es schon jetzt Anpassungsbedarf? Daten nehmen in unserem Leben eine entscheidende Rolle ein. Von der Nutzung einer App bis hin zum Einkauf im Internet ist die Speicherung und Analyse von Daten selbstverständlich und allgegenwärtig geworden. Unternehmen profitieren dank Digitalisierung von effizienteren, datengetriebenen Produktionsprozessen und erschließen neue Geschäftsmodelle. Doch bleibt das immense Innovationspotenzial, das die digitale Vernetzung bietet, noch weitgehend ungenutzt. Nur einige wenige Player haben ihre Chance früh erkannt und Geschäftsmodelle auf Basis von Daten geschaffen, die sie zu den führenden Unternehmen machen. So haben Facebook und Google eine Datenhoheit erreicht, die inzwischen in der Kritik steht. Die Nutzer wollen wissen, was mit ihren Daten geschieht und wie diese genutzt werden.

  • Standardsoftware oder individuelle Optionen

    Egal ob eCommerce, Cloud Computing oder mobiles Internet - wer auf neue Kommunikationstechnologien setzt, stellt zusätzliche Anforderungen an die Sicherheit, Interoperabilität, Flexibilität, Skalierbarkeit oder Wartbarkeit bereits implementierter Softwarelösungen. Konfrontiert mit den digitalen Herausforderungen der Zukunft, stehen Unternehmen somit vor der Qual der Wahl: Erfüllt Standardsoftware die eigenen Ansprüche oder bieten individuelle Optionen einen größeren Mehrwert? "Je nach Reifegrad der eigenen Kundenorganisation benötigen Betriebe simple beziehungsweise komplexere Lösungen", erklärt Andreas Köninger, Vorstand der SinkaCom AG, eines Digitalisierungsspezialisten. "Besonders die Kombination verschiedener Programme hilft dabei, die Unternehmenswirklichkeit abzubilden und den technischen Transformationsprozess voranzutreiben."

  • Public Cloud: Reduktion auf das Wesentliche

    Cloud-Lösungen sind nichts Neues, bei SAP werden diese immerhin seit mehreren Jahren angeboten. Doch so wirklich wollten sich deutsche Unternehmen bisher nicht von ihren "On-Premise" Installationen verabschieden. Die vorherrschende Meinung: Cloud-Lösungen können einfach nicht leisten was eine firmeneigene Software schafft. Während dies zu Beginn in Teilbereichen auch stimmte, offenbart die Cloud zunehmend ihre Stärken. Vor allem der "immer und überall" Zugang für Mitarbeiter, Partner und Dienstleister sowie die schnelle und effiziente Implementierung hat im vergangenen Pandemie-Jahr zunehmend an Bedeutung gewonnen. Aber auch die stetige Weiterentwicklung in Richtung künstliche Intelligenz und Automatisierung sprechen immer mehr für die Cloud.

  • Vormarsch von Cloud-Native-Technologien

    Cloud Native ist längst kein Nischenthema mehr, das nur für Start-ups relevant ist. Auch im Enterprise-Segment ist Cloud Native inzwischen angekommen. Unternehmen sehen die Vorteile von Anwendungen und Microservices, die sie direkt aus der Cloud beziehen, beziehungsweise die ausschließlich als Cloud-Anwendungen konzipiert sind. Flexibilität, Innovation und Agilität sind nur einige der Vorteile von Cloud Native. Darüber hinaus ebnen diese Technologien den Weg für ein schnelleres Time-to-Market von Produkten und eine Verbesserung des Betriebsergebnisses. Cloud Native bedeutet mehr als nur die Migration einer bestehenden Softwarelösung in die Cloud. Es geht darum, eigene Software-Architekturen zu schaffen, die auf den Betrieb in mehreren Clouds ausgelegt sind. Individualsoftware setzt heute noch überwiegend auf einen statischen Technologie-Stack für die Entwicklung und den Betrieb. Durch die Spezifikation - meist on-premise - fehlen in der Praxis oft Flexibilität, Standardisierung und Skalirbarkeit. Mit einem Cloud-Native-Ansatz werden sowohl technologisch als auch im Rahmen der Organisation und Prozesskette mehr Flexibilität und Variabilität geschaffen.

  • Schnellere Integration von Cloud-Diensten

    Disruption von Lieferketten durch die Pandemie - diese Worthülse kann langsam niemand mehr hören. Fertigungsstraßen standen still und die Frage nach präventiven Maßnahmen kam auf. Der Digitalisierungsschub des vergangenen Jahres wird sich auch im aktuellen Jahr fortsetzen. Machine Learning, was oft etwas irreführend einfach mit künstlicher Intelligenz gleichgesetzt wird, spielt hier eine zentrale Rolle, aber auch eine intuitive Nutzererfahrung, die gerade von jungen Professionals, die am Anfang ihrer Karriere stehen, erwartet wird. Sie setzen einen hohen Digitalisierungsgrad voraus, weil sie mit modernen Technologien aufgewachsen sind. Außerdem werden immer mehr fertigende Unternehmen dazu übergehen, Planning und Execution in einer Lösung zu vereinen, sodass Störungen der Lieferkette in Zukunft besser antizipiert werden und rechtzeitig Gegenmaßnahmen ergriffen werden können.