- Anzeige -


Sie sind hier: Startseite » Fachartikel » Grundlagen

Datacenter und Outsourcing


Das Outsourcen von IT-Strukturen und Application Service providing (ASP) auf Mietbasis bietet eine Vielzahl von Vorteilen für Unternehmen
Eine Kostenreduktion von bis zu 90 Prozent, klar kalkulierbare IT-Kosten bei sofortiger steuerlicher Absetzbarkeit, optimale Skalierbarkeit und hohe Sicherheit bei maximaler Leistungsfähigkeit

Nils Kaufmann:
Nils Kaufmann: Datensicherheit, Hochverfügbarkeit und Vertrauenswürdigkeit im Umgang mit sensiblen Prozess- und Informationsdaten sind Kriterien in der Auswahl des richtigen Outsourcing-Partners. Bild: centron

Von Nils Kaufmann, Key Account Manager, QMB Centron GmbH

(24.08.09) - Die Begriffe Datacenter und Outsourcing sind in der IT meist untrennbar miteinander verbunden. Bevor wir tiefer in die Thematik einsteigen, sei eine kurze Begriffsbestimmung vorangeschickt. Dem Wort "Outsourcing" wurde 1996 die zweifelhafte Ehre zuteil, in die Riege der "Unwörter des Jahres" aufgenommen worden zu sein. Diese kleine Anekdote verdeutlicht die Ambivalenz im Umgang mit diesem Begriff und dem Verständnis dieses, zweifelsohne unaufhaltsamen, wirtschaftlichen Trends. Gemeint hier soll sein, nicht mehr und nicht weniger als die entweder teilweise (auch Outtasking) oder komplette Verlagerung der IT-Infrastruktur eines Unternehmens im Hinblick auf technische, ökonomische und ökologische Optimierung hin zu einem externen, darauf spezialisierten, Dienstleister.

Mit Datacenter oder Rechenzentrum ist in der Regel die gesamte räumliche und technische Infrastruktur gemeint, die für den physikalischen Betrieb darin befindlicher Rechnereinheiten notwendig ist, bis hin zu deren kommunikativer Erreichbarkeit durch daran angeschlossene Datenstränge.

Ein modernes und professionelles Rechenzentrum verfügt nicht nur über einen hochverfügbaren Backbone- und Multi-Carrier-Anbindungen mit kurzfristig erweiterbaren Bandbreiten, sondern über konsequent redundant ausgelegte Sicherheitsfeatures. Dazu gehören selbstverständlich neueste Löschanlagen und die Einrichtung separater Brandabschnitte, Notstrom-Aggregate zur unterbrechungsfreien Stromversorgung (USV) und Klimatisierungssysteme zur Unterbindung von Temperaturschwankungen.

Modernste Schließ-, Video- und Alarmanlagen sind weltweiter Standard für professionelle Hochsicherheits-Rechenzentren.
Das Kernelement für den störungsfreien Dauerbetrieb stellt das Network-Operation-Center, kurz "NOC" dar. Das NOC sorgt sich um und sichert die 24/7 Überwachung des gesamten Datacenters und der darin angeschlossenen Serversysteme. So können meist Leistungsschwankungen und Unregelmäßigkeiten frühzeitig erkannt und proaktiv gefixt werden, bevor es überhaupt zu Auswirkungen kommen kann. Ebenfalls lassen sich im Fall eines Desasters vordefinierte Eskalationspläne in Gang setzen und die Systemtechnik effektiv zur Behebung von Störungen lenken und einsetzen.

Der Einsatz energieeffizienter Strom- und Kühlanlagen und im Hinblick auf CO2- und Abwärme optimierte Rahmenparameter ist ein wichtiger Bestandteil heutiger Hochsicherheitsanlagen. Der Nachweis des nachhaltigen und verantwortungsbewussten Umgangs mit natürlichen Ressourcen wird in diesem Zusammenhang durch eine sogenannte Ökozertifizierung nach ISO 14001 erbracht.

Die Bereitstellung eines geografisch vom Haupt-Rechenzentrum getrennten Backup-Datacenters und/ oder einer weiteren Rechenzentrumsfläche zur Duplizierung kritischer Daten und Systeme gehört ebenfalls in das Portfolio eines professionell aufgestellten Rechenzentrumsbetreibers. Die Möglichkeit zur Realisierung beispielsweise eines Stretched Clusters ist im Business-Segment eine Notwendigkeit.

Je nach Firmenphilosophie und Stammklientel kann es aus Sicht eines Betreibers durchaus sinnvoll sein, den genauen Standort seiner Gebäude nicht ohne weiteres nach außen zu kommunizieren, da nicht zuletzt das physikalische Objekt Rechenzentrum einen neuralgischen Angriffspunkt darstellt.

Das Outsourcen der IT eines Unternehmens kann grundsätzlich in drei Varianten geschehen.
>>
Ersterer liegt ein (Rack-) Housing oder Colocation Service zugrunde, wobei die eigene Hardware in ein externes Datacenter gestellt wird, um die Sicherheit und Verfügbarkeit zu maximieren, ohne dabei selbst in eine entsprechend aufwändige Infrastruktur investieren zu müssen. Hier kann es sich um die Unterbringung eines Servers in ein bereitgestelltes Rack handeln, oder das Anmieten eines eigenen Raumes nebst einer komplett durchgängig parallel verlaufenden Anbindung. Einer der Vorteile kann sein, dass eventuell neugekaufte oder bestehende Hardware unter optimalen Rahmenbedingungen weiter genutzt werden kann und nicht neu gekauft oder angemietet werden muss. Ein Nachteil kann allerdings hierbei sein, dass meist Managing Services von einem externen Provider ausgeschlossen sind, da sich die Übernahme von Verantwortlichkeiten für Fremdsysteme oftmals als problematisch darstellt.

>> Die zweite Variante ähnelt der ersten, wobei die benötigte Hardware direkt über den Datacenter-Betreiber bezogen wird, allerdings durch Kauf dem Unternehmen wieder selbst gehört.

>> Die dritte Variante stellt den allgemein üblichen Outsourcingprozess dar: Die vom Unternehmen benötigte Hard- und Software wird für einen genau festgelegten Zeitraum unter Einhaltung vorher definierter Service Level Agreements von einem externen Dienstleister angemietet, von diesem überwacht, gemanagt und vor allem verantwortet. Die gesicherte Unterbringung und optimale Anbindung der Systeme erfolgt idealerweise im vom externen Dienstleister selbst betriebenen Rechenzentrum. Dies verringert die Zahl der Ansprechpartner für den Kunden und verkürzt oder beseitigt unnötige Administrationswege.

Das Outsourcen von IT-Strukturen und Application Service providing (ASP) auf Mietbasis bietet eine Vielzahl von Vorteilen für Unternehmen.
Eine Kostenreduktion von bis zu 90 Prozent durch geringere Total Cost of Ownership (TCO), klar kalkulierbare IT-Kosten bei sofortiger steuerlicher Absetzbarkeit, optimale Skalierbarkeit und hohe Sicherheit bei maximaler Leistungsfähigkeit. Die Reduktion von Personalkosten bei Vervielfachung der Verfügbarkeit und garantierten Zugriff auf einen 24/7 Notdienst sind weitere ausschlaggebende Punkte.

Der oft vergessene (doch langfristig entscheidende!) Vorteil für Unternehmen ist die Chance zur Besinnung und Konzentration auf die eigenen Kernkompetenzen und das Erreichen gesteckter Ziele.

Die Crux vieler erfolgreicher Firmen ist, dass obwohl deren Kerngeschäft in völlig IT-fremden Bereichen liegt, etwa als Automobilzulieferer, Schuhfabrikant oder Getränkedosenhersteller, die computergestützte Infrastruktur das Bindeglied aller angeschlossenen Abteilungen darstellt. Ohne Computer und spezieller Software funktioniert nichts. Von der Gebäudereinigungsfirma bis zum souveränen Staatengebilde steht und fällt die Leistungsfähigkeit mit der elektronischen Datenverarbeitung. "Schuster, bleib bei Deinen Leisten" ist ein treffender Ausdruck für einen neuen Führungsstil in zahlreichen Chefetagen.

Eigene Kernfelder werden gestärkt und entschlackt, branchenfremde Leistungen beim Spezialisten nach Bedarf eingekauft. Warum werden einfache Reparatur- und Reinigungsarbeiten nicht von eigenem Personal durchgeführt? Warum werden Fuhrparkmanagement und Marketingmaßnahmen oftmals ausgelagert? Weil es durch die Fremdfirma billiger und besser ausgeführt wird. Service on demand gilt gleichfalls für das Outsourcen der IT.

Warum langjährige Abschreibungsfristen beim Kauf von Hard- und Software akzeptieren, wenn dies auch als sofort absetzbares Mietmodell realisierbar ist. Es kommt erschwerend hinzu, dass nichts älter ist, als die IT von gestern. Ob Windows oder Linux, jede Software kann angemietet werden und ist immer auf dem neuesten Stand. Ist die Hardware nach Ablauf des zwölfmonatigen Mietvertrages nicht mehr ganz frisch, dann wird eben die Neueste angemietet, ohne dass die alten Teile noch vor ihrer Amortisierung in der Aservatenkammer eingemottet werden müssen. Selbst der mit Abstand größte Kostenfaktor, das Fachpersonal, lässt sich in einer klar kalkulierbaren monatlichen Abrechnung abbilden.

Ohne Zwang zu Sozialabgaben und der drängenden Frage, wie sich eine 24-stündige Erreichbarkeit der Mitarbeiter an sieben Tagen in der Woche mit dem Regelwerk der zuständigen Gewerkschaft realisieren lässt, kauft man sich individuelle Service Level Agreement, kurz SLA, einfach beim externen Dienstleister hinzu. Dieser sorgt durchgehend an 365 Tagen im Jahr für den Betrieb der eigenen Infrastruktur, inklusive dem Vorhalten geeigneter Fachkräfte und deren Fortbildungsmaßnahmen. Ziel einer Auslagerung artfremder Prozesse muss sein: Konsolidierung eigener Ressourcen und Konzentration auf originäre Aufgaben. Obschon der ein oder andere kaufmännische und technische Entscheider eines Unternehmens schon an die Eingabe einer Petition beim Bundespräsidenten zur Verlängerung des Tages auf 36 oder 48 Stunden nachgedacht haben mag, ist deren Einführung zumindest mittelfristig nicht zu erwarten.

Dies bedeutet, dass zur Steuerung oft über Jahre gewachsener IT-Strukturen Führungskräften immer mehr Entscheidungen abverlangt werden, die mangels Zeit und Kenntnis wieder weiter delegiert werden, hierfür neues Personal eingestellt wird und sich so ein Teufelskreis manifestiert, dessen Aufbrechen, umso später damit begonnen wird, sich desto schmerzhafter vollzieht. Hier hilft nur ein erfahrener und besonnener Berater durch sinnvolle und langfristig orientierte Migration komplexer Prozesse und Systeme Ordnung und Übersicht zu schaffen. Statt unentwegt kleinen und größeren Brandherden mit einem haushaltsüblichen Feuerlöscher hinterherzulaufen, werden hinderliche Strukturen entzerrt und potentielle Feuerstellen aufgedeckt und entfernt.

Der Aufbau eigener belastbarer Wissensstrukturen in der IT ist ein Prozess, der über Jahre andauert, sehr viel Kapitalbindung erfordert und im Grunde nie abgeschlossen ist. Mangels ausreichender Dokumentationen sind wichtige Kenntnisse oftmals lediglich personenbezogen abgespeichert. Das heißt, bestimmte Mitarbeiter werden nahezu unkündbar und unersetzlich. Solche Abhängigkeiten gilt es durch systematisches Outsourcen zu vermeiden.

Die Erfahrung der letzten Jahre hat gezeigt, dass ein stringent professioneller Service aus einer Hand vor allem im Bereich IT-Outsourcing sinnvoll ist.

Gerade abseits des inflationären Massenmarktes haben sich in den vergangen Jahren weltweit einige Internet Service Provider in der Business Class etabliert. Besonders im Bereich der Mittelstands- und Großkunden ist langjährige Projekterfahrung, fundierte Support-Leistung und individueller Service gefragt. Themen wie Datensicherheit, Hochverfügbarkeit und Vertrauenswürdigkeit im Umgang mit sensiblen Prozess- und Informationsdaten sind weitere Kriterien in der Auswahl des richtigen Outsourcing-Partners.

Führende Unternehmen haben sich bereits vor vielen Jahren auf das Business-Segment mit all seinen besonderen Anforderungen spezialisiert und bieten die gesamte Wertschöpfungskette der IT-Infrastruktur aus einer Hand an. Vom persönlichen Ansprechpartner während des Projektprozesses, über die Konfiguration individueller Serversysteme bis hin zu deren professionellen Bereitstellung in bis zu drei geografisch von einander getrennten Rechenzentren in Deutschland. Komplette Windows- und Linux-Abteilungen sorgen für fundierten technischen Support, und eigene Systemtechniker überwachen das Datacenter vor Ort.

Die Migration sicherheitsrelevanter Datensätze und Applikationen im Rahmen eines Outsourcings und der Umgang mit hochkomplexen Server-Strukturen erfordern ein partnerschaftliches Grundverhältnis zwischen dem Unternehmen und dem externen Dienstleister. Das dynamische Auffinden neuer und innovativer Lösungsansätze ist hierbei ein immer wiederkehrender Findungsprozess.

Die IT eines jeden Unternehmens, einer Gemeinde oder Institution wird nicht umsonst meist als Herzstück bezeichnet. "Try and error" mag sympathisch klingen, ist im Business-Segment jedoch als konstruktive Herangehensweise deplatziert. Im Umgang mit unternehmenskritischen Entscheidungsoptionen wird eher mit dem Motto "Gut gemeint ist das Gegenteil von gut gemacht" ein Schuh daraus. In diesem Sinne. (centron: ra)

centron: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Grundlagen

  • Es ist an der Zeit, die Cloud zu dezentralisieren

    Heute beheimatet die Erde 206 souveräne Staaten. Souveränität ist, wie uns das Lexikon erklärt, das "volle Recht und die Macht eines Regierungsorgans über sich selbst, ohne Einmischung von außen". In gewisser Weise hat die in den frühen 2000er Jahren eingeführte Public Cloud die Souveränität vieler Staaten in Frage gestellt: Sie zentralisierte Daten- und Cloud Computing-Services auf sehr effiziente Weise, um Kunden in jeder Ecke der Welt zu bedienen - eine Welt ohne Grenzen. Verbraucher und Unternehmen begrüßten das befreiende Konzept, das sich schnell weiterentwickelte.

  • Cloud-Sicherheit & Shared Responsibility-Modell

    Viele Unternehmen setzen auf eine Kombination verschiedener Backup-Lösungen, häufig über mehrere Standorte hinweg. Im Krisenfall macht es solch eine Strategie jedoch oft schwierig, Dateien zeitnah wiederherzustellen. Dagegen bieten Cloud-integrierte Lösungen einfaches Testen der Disaster-Recovery-Strategie und im Notfall die rasche Rückkehr zum Normalbetrieb. Daten sind für Unternehmen heute wertvolle Rohstoffe und müssen besser gesichert werden als je zuvor. Gerade in Zeiten weltweiter Ransomware-Attacken ist eine profunde Backup- und Disaster Recovery-Strategie daher unabdingbar geworden, um im Krisenfall sofort reagieren zu können und die Geschäftskontinuität zu sichern. Doch bei der Disaster Recovery geht es nicht nur um Ransomware-Bedrohungen und Advanced Threats, sondern ebenso um die Wiederherstellung nach Hardware-Ausfällen von IT-Komponenten wie Servern und Storage-Systemen, aufgrund menschlicher Fehler oder einer Naturkatastrophe.

  • Wächter des Cloud-Datenschatzes

    Im Zuge der Digitalisierung wächst die Datenmenge, die Unternehmen täglich verarbeiten, stetig an. Dies spiegelt sich auch in der gestiegenen Nutzung von Cloud Computing-Anwendungen in den vergangenen Jahren wider. Unternehmensdaten sind rund um die Uhr überall zugänglich, ermöglichen effiziente Arbeitsabläufe und - zumindest auf den ersten Blick - etwas weniger Verwaltungsaufwand für die IT-Abteilung. Dieser Effekt relativiert sich jedoch, wenn man die Cloud Computing-Nutzung unter dem Aspekt der Sicherheit betrachtet. Die damit einhergehenden Risiken und neuen Bedrohungen erfordern fortschrittliche Sicherheitstechnologien, um den Schutz von Unternehmensdaten gewährleisten zu können.

  • Cloud-Sicherheit: Shared Responsibility-Modell

    Viele Unternehmen setzen auf eine Kombination verschiedener Backup-Lösungen, häufig über mehrere Standorte hinweg. Im Krisenfall macht es solch eine Strategie jedoch oft schwierig, Dateien zeitnah wiederherzustellen. Dagegen bieten Cloud-integrierte Lösungen einfaches Testen der Disaster-Recovery-Strategie und im Notfall die rasche Rückkehr zum Normalbetrieb. Daten sind für Unternehmen heute wertvolle Rohstoffe und müssen besser gesichert werden als je zuvor. Gerade in Zeiten weltweiter Ransomware-Attacken ist eine profunde Backup- und Disaster Recovery-Strategie daher unabdingbar geworden, um im Krisenfall sofort reagieren zu können und die Geschäftskontinuität zu sichern.

  • DevOps: Eine Gefahr oder die Zukunft für ITSM?

    Der digitale Wandel beeinflusst die Unternehmenslandschaft stark. Auch im IT-Service-Management stehen Entscheider zahlreichen neuen Herausforderungen gegenüber. Die Verzahnung von Entwicklung und Betrieb, auch Development and Operations, kurz DevOps, spielt eine immer größere Rolle. Häufig stellen sich die Verantwortlichen jedoch eine Frage: Ist DevOps eine Gefahr oder die Zukunft des IT-Service-Managements (ITSM)? Zu den Ursachen für etwaige Bedenken zählt unter anderem die Infragestellung der Stabilität des IT-Betriebes. Angebote aus der Cloud werden mit einem Angriff auf die eigene IT gleichgesetzt und gestandene ITIL-Change-Manager können sich eine weitere Verkürzung und Vereinfachung der Prozesse nicht mehr vorstellen. Dabei lässt sich bei Betrachtung des Bereichs "Entwicklung und Betrieb von Applikationen" feststellen, dass es zahlreiche Gründe gibt, sich mit den Inhalten von DevOps zu befassen. Veränderungen im IT-Service-Management stellen dabei stets eine Notwendigkeit dar.

  • Das WAN weicht in die Wolke

    Unternehmen als abgeschlossene Einheiten sind passé. Neue Arbeitskonzepte wie mobiles Arbeiten oder BYOD lassen Mauern bröckeln - gerade auch im Hinblick auf Unternehmensnetzwerke. Unternehmen mit Niederlassungen oder Filialen im Handel müssen neben stationärer IT wie Kassensystemen auch mobile oder temporäre Geräte ins Netzwerk einbinden, zum Beispiel Digital-Signage-Terminals. Und Kunden setzen meist ein offenes WLAN voraus. Die digitale Transformation stellt neue Herausforderungen an das vormals Hardware-orientierte Wide-Area-Network (WAN)-Management. Software- und Cloud-definierte Ansätze erleichtern die Administration bei gleichzeitig hohen Sicherheitsstandards.

  • DevOps gegen IT-Operations

    Ein IT-Infrastrukturteam hat es heutzutage nicht leicht. Einerseits muss es den Betrieb des herkömmlichen Rechenzentrums aufrechterhalten, gleichzeitig soll es die strategische Digitalisierung des Unternehmens vorantreiben. Als wenn das nicht schon Herausforderung genug wäre, sollen die IT-ler zusätzlich komplett neue Technologien bereitstellen, um die neuen DevOps-Kollegen bestmöglich bei Neuerungen und schnelleren Release-Zyklen zu unterstützen. Anforderungen von DevOps an eine flexible und automatisierte Unternehmensinfrastruktur sind nicht immer einfach zu erfüllen und so wird der Trend zu DevOps für Infrastrukturteams eine zusätzliche Belastung. Prallen doch die unterschiedlichen Welten der IT-Operations und des DevOps-Teams aufeinander.

  • Automatisierte Speicherrichtlinien & Daten-GPS

    Die Globalisierung hat die Welt schrumpfen lassen. Nicht nur Reisende ziehen heute rund um den Globus, auch Daten sind dank Cloud Computing äußerst mobil und werden von Unternehmen aus den unterschiedlichsten Gründen zwischen Rechenzentren verschoben. Wir Menschen fühlen uns im eigenen Zuhause am sichersten. Auch für Unternehmensdaten gilt, dass das Risiko sie bei der Migration über Ländergrenzen hinweg zu verlieren, natürlich steigt. Als Mensch ist es heute mittels GPS sehr einfach, einen Standort zu bestimmen. Damit auch Unternehmen immer genau wissen, wo ihre Daten physisch gespeichert sind, bieten sich dank automatisierten Speicherrichtlinien und einem Daten-GPS neue Methoden, den exakten Standort von Daten festzulegen.

  • Mit SaaS & HaaS die IT-Abteilung entlasten

    In vielen Unternehmen stehen CIOs vor der Aufgabe, mit einer sich rasch entwickelnden IT-Welt Schritt halten zu müssen. Hinzu kommt, geeignetes Personal mit dem entsprechenden Know-how zu finden und sich stets gegen zunehmende Sicherheitsrisiken zu wappnen. Diese Herausforderungen beanspruchen zeitliche und finanzielle Ressourcen in der IT-Abteilung, die Unternehmen an anderer Stelle dringender bräuchten. Im Rahmen von Managed Services wie Software-as-a-Service (SaaS) und Hardware-as-a-Service (HaaS) werden Standardaufgaben an externe Dienstleister ausgelagert. Das schafft Freiräume und entlastet die IT-Abteilung. Welche Fragen sind relevant, um zu erkennen, ob auch das eigene Unternehmen von Managed Services profitieren kann.

  • Die Zukunft des File Sharing

    Um den Austausch von Forschungsdaten zwischen verschiedenen Teams am CERN zu ermöglichen, erfand Tim Berners-Lee in den achtziger Jahren, als Nebenprodukt sozusagen, das Internet. Heute ist das Internet die tragende Säule der weltweiten Kommunikation und aus unserem digitalen Leben nicht mehr wegzudenken. Überraschenderweise hat sich seit den frühen Tagen des Internets kaum etwas verändert: Nach wie vor werden für die Übermittlung von Dateien Protokolle aus den Anfangstagen des Internets genutzt. Zum damaligen Zeitpunkt war jedoch eine Welt, in der Datenmengen exponentiell wachsen, Hacker an allerlei Daten interessiert sind und Organisationen in denen zehntausende Mitarbeiter täglich millionenfach Dateien teilen, noch nicht vorstellbar. Worauf sollten Unternehmen also achten, wenn sie eine zukunftssichere File Sharing-Lösung nutzen möchten? Und welche neuen Technologien halten Einzug um Filesharing sicherer, komfortabler und schneller zu machen?