- Anzeige -


Sie sind hier: Startseite » Fachartikel » Grundlagen

Datacenter und Outsourcing


Das Outsourcen von IT-Strukturen und Application Service providing (ASP) auf Mietbasis bietet eine Vielzahl von Vorteilen für Unternehmen
Eine Kostenreduktion von bis zu 90 Prozent, klar kalkulierbare IT-Kosten bei sofortiger steuerlicher Absetzbarkeit, optimale Skalierbarkeit und hohe Sicherheit bei maximaler Leistungsfähigkeit

Nils Kaufmann:
Nils Kaufmann: Datensicherheit, Hochverfügbarkeit und Vertrauenswürdigkeit im Umgang mit sensiblen Prozess- und Informationsdaten sind Kriterien in der Auswahl des richtigen Outsourcing-Partners. Bild: centron

Von Nils Kaufmann, Key Account Manager, QMB Centron GmbH

(24.08.09) - Die Begriffe Datacenter und Outsourcing sind in der IT meist untrennbar miteinander verbunden. Bevor wir tiefer in die Thematik einsteigen, sei eine kurze Begriffsbestimmung vorangeschickt. Dem Wort "Outsourcing" wurde 1996 die zweifelhafte Ehre zuteil, in die Riege der "Unwörter des Jahres" aufgenommen worden zu sein. Diese kleine Anekdote verdeutlicht die Ambivalenz im Umgang mit diesem Begriff und dem Verständnis dieses, zweifelsohne unaufhaltsamen, wirtschaftlichen Trends. Gemeint hier soll sein, nicht mehr und nicht weniger als die entweder teilweise (auch Outtasking) oder komplette Verlagerung der IT-Infrastruktur eines Unternehmens im Hinblick auf technische, ökonomische und ökologische Optimierung hin zu einem externen, darauf spezialisierten, Dienstleister.

Mit Datacenter oder Rechenzentrum ist in der Regel die gesamte räumliche und technische Infrastruktur gemeint, die für den physikalischen Betrieb darin befindlicher Rechnereinheiten notwendig ist, bis hin zu deren kommunikativer Erreichbarkeit durch daran angeschlossene Datenstränge.

Ein modernes und professionelles Rechenzentrum verfügt nicht nur über einen hochverfügbaren Backbone- und Multi-Carrier-Anbindungen mit kurzfristig erweiterbaren Bandbreiten, sondern über konsequent redundant ausgelegte Sicherheitsfeatures. Dazu gehören selbstverständlich neueste Löschanlagen und die Einrichtung separater Brandabschnitte, Notstrom-Aggregate zur unterbrechungsfreien Stromversorgung (USV) und Klimatisierungssysteme zur Unterbindung von Temperaturschwankungen.

Modernste Schließ-, Video- und Alarmanlagen sind weltweiter Standard für professionelle Hochsicherheits-Rechenzentren.
Das Kernelement für den störungsfreien Dauerbetrieb stellt das Network-Operation-Center, kurz "NOC" dar. Das NOC sorgt sich um und sichert die 24/7 Überwachung des gesamten Datacenters und der darin angeschlossenen Serversysteme. So können meist Leistungsschwankungen und Unregelmäßigkeiten frühzeitig erkannt und proaktiv gefixt werden, bevor es überhaupt zu Auswirkungen kommen kann. Ebenfalls lassen sich im Fall eines Desasters vordefinierte Eskalationspläne in Gang setzen und die Systemtechnik effektiv zur Behebung von Störungen lenken und einsetzen.

Der Einsatz energieeffizienter Strom- und Kühlanlagen und im Hinblick auf CO2- und Abwärme optimierte Rahmenparameter ist ein wichtiger Bestandteil heutiger Hochsicherheitsanlagen. Der Nachweis des nachhaltigen und verantwortungsbewussten Umgangs mit natürlichen Ressourcen wird in diesem Zusammenhang durch eine sogenannte Ökozertifizierung nach ISO 14001 erbracht.

Die Bereitstellung eines geografisch vom Haupt-Rechenzentrum getrennten Backup-Datacenters und/ oder einer weiteren Rechenzentrumsfläche zur Duplizierung kritischer Daten und Systeme gehört ebenfalls in das Portfolio eines professionell aufgestellten Rechenzentrumsbetreibers. Die Möglichkeit zur Realisierung beispielsweise eines Stretched Clusters ist im Business-Segment eine Notwendigkeit.

Je nach Firmenphilosophie und Stammklientel kann es aus Sicht eines Betreibers durchaus sinnvoll sein, den genauen Standort seiner Gebäude nicht ohne weiteres nach außen zu kommunizieren, da nicht zuletzt das physikalische Objekt Rechenzentrum einen neuralgischen Angriffspunkt darstellt.

Das Outsourcen der IT eines Unternehmens kann grundsätzlich in drei Varianten geschehen.
>>
Ersterer liegt ein (Rack-) Housing oder Colocation Service zugrunde, wobei die eigene Hardware in ein externes Datacenter gestellt wird, um die Sicherheit und Verfügbarkeit zu maximieren, ohne dabei selbst in eine entsprechend aufwändige Infrastruktur investieren zu müssen. Hier kann es sich um die Unterbringung eines Servers in ein bereitgestelltes Rack handeln, oder das Anmieten eines eigenen Raumes nebst einer komplett durchgängig parallel verlaufenden Anbindung. Einer der Vorteile kann sein, dass eventuell neugekaufte oder bestehende Hardware unter optimalen Rahmenbedingungen weiter genutzt werden kann und nicht neu gekauft oder angemietet werden muss. Ein Nachteil kann allerdings hierbei sein, dass meist Managing Services von einem externen Provider ausgeschlossen sind, da sich die Übernahme von Verantwortlichkeiten für Fremdsysteme oftmals als problematisch darstellt.

>> Die zweite Variante ähnelt der ersten, wobei die benötigte Hardware direkt über den Datacenter-Betreiber bezogen wird, allerdings durch Kauf dem Unternehmen wieder selbst gehört.

>> Die dritte Variante stellt den allgemein üblichen Outsourcingprozess dar: Die vom Unternehmen benötigte Hard- und Software wird für einen genau festgelegten Zeitraum unter Einhaltung vorher definierter Service Level Agreements von einem externen Dienstleister angemietet, von diesem überwacht, gemanagt und vor allem verantwortet. Die gesicherte Unterbringung und optimale Anbindung der Systeme erfolgt idealerweise im vom externen Dienstleister selbst betriebenen Rechenzentrum. Dies verringert die Zahl der Ansprechpartner für den Kunden und verkürzt oder beseitigt unnötige Administrationswege.

Das Outsourcen von IT-Strukturen und Application Service providing (ASP) auf Mietbasis bietet eine Vielzahl von Vorteilen für Unternehmen.
Eine Kostenreduktion von bis zu 90 Prozent durch geringere Total Cost of Ownership (TCO), klar kalkulierbare IT-Kosten bei sofortiger steuerlicher Absetzbarkeit, optimale Skalierbarkeit und hohe Sicherheit bei maximaler Leistungsfähigkeit. Die Reduktion von Personalkosten bei Vervielfachung der Verfügbarkeit und garantierten Zugriff auf einen 24/7 Notdienst sind weitere ausschlaggebende Punkte.

Der oft vergessene (doch langfristig entscheidende!) Vorteil für Unternehmen ist die Chance zur Besinnung und Konzentration auf die eigenen Kernkompetenzen und das Erreichen gesteckter Ziele.

Die Crux vieler erfolgreicher Firmen ist, dass obwohl deren Kerngeschäft in völlig IT-fremden Bereichen liegt, etwa als Automobilzulieferer, Schuhfabrikant oder Getränkedosenhersteller, die computergestützte Infrastruktur das Bindeglied aller angeschlossenen Abteilungen darstellt. Ohne Computer und spezieller Software funktioniert nichts. Von der Gebäudereinigungsfirma bis zum souveränen Staatengebilde steht und fällt die Leistungsfähigkeit mit der elektronischen Datenverarbeitung. "Schuster, bleib bei Deinen Leisten" ist ein treffender Ausdruck für einen neuen Führungsstil in zahlreichen Chefetagen.

Eigene Kernfelder werden gestärkt und entschlackt, branchenfremde Leistungen beim Spezialisten nach Bedarf eingekauft. Warum werden einfache Reparatur- und Reinigungsarbeiten nicht von eigenem Personal durchgeführt? Warum werden Fuhrparkmanagement und Marketingmaßnahmen oftmals ausgelagert? Weil es durch die Fremdfirma billiger und besser ausgeführt wird. Service on demand gilt gleichfalls für das Outsourcen der IT.

Warum langjährige Abschreibungsfristen beim Kauf von Hard- und Software akzeptieren, wenn dies auch als sofort absetzbares Mietmodell realisierbar ist. Es kommt erschwerend hinzu, dass nichts älter ist, als die IT von gestern. Ob Windows oder Linux, jede Software kann angemietet werden und ist immer auf dem neuesten Stand. Ist die Hardware nach Ablauf des zwölfmonatigen Mietvertrages nicht mehr ganz frisch, dann wird eben die Neueste angemietet, ohne dass die alten Teile noch vor ihrer Amortisierung in der Aservatenkammer eingemottet werden müssen. Selbst der mit Abstand größte Kostenfaktor, das Fachpersonal, lässt sich in einer klar kalkulierbaren monatlichen Abrechnung abbilden.

Ohne Zwang zu Sozialabgaben und der drängenden Frage, wie sich eine 24-stündige Erreichbarkeit der Mitarbeiter an sieben Tagen in der Woche mit dem Regelwerk der zuständigen Gewerkschaft realisieren lässt, kauft man sich individuelle Service Level Agreement, kurz SLA, einfach beim externen Dienstleister hinzu. Dieser sorgt durchgehend an 365 Tagen im Jahr für den Betrieb der eigenen Infrastruktur, inklusive dem Vorhalten geeigneter Fachkräfte und deren Fortbildungsmaßnahmen. Ziel einer Auslagerung artfremder Prozesse muss sein: Konsolidierung eigener Ressourcen und Konzentration auf originäre Aufgaben. Obschon der ein oder andere kaufmännische und technische Entscheider eines Unternehmens schon an die Eingabe einer Petition beim Bundespräsidenten zur Verlängerung des Tages auf 36 oder 48 Stunden nachgedacht haben mag, ist deren Einführung zumindest mittelfristig nicht zu erwarten.

Dies bedeutet, dass zur Steuerung oft über Jahre gewachsener IT-Strukturen Führungskräften immer mehr Entscheidungen abverlangt werden, die mangels Zeit und Kenntnis wieder weiter delegiert werden, hierfür neues Personal eingestellt wird und sich so ein Teufelskreis manifestiert, dessen Aufbrechen, umso später damit begonnen wird, sich desto schmerzhafter vollzieht. Hier hilft nur ein erfahrener und besonnener Berater durch sinnvolle und langfristig orientierte Migration komplexer Prozesse und Systeme Ordnung und Übersicht zu schaffen. Statt unentwegt kleinen und größeren Brandherden mit einem haushaltsüblichen Feuerlöscher hinterherzulaufen, werden hinderliche Strukturen entzerrt und potentielle Feuerstellen aufgedeckt und entfernt.

Der Aufbau eigener belastbarer Wissensstrukturen in der IT ist ein Prozess, der über Jahre andauert, sehr viel Kapitalbindung erfordert und im Grunde nie abgeschlossen ist. Mangels ausreichender Dokumentationen sind wichtige Kenntnisse oftmals lediglich personenbezogen abgespeichert. Das heißt, bestimmte Mitarbeiter werden nahezu unkündbar und unersetzlich. Solche Abhängigkeiten gilt es durch systematisches Outsourcen zu vermeiden.

Die Erfahrung der letzten Jahre hat gezeigt, dass ein stringent professioneller Service aus einer Hand vor allem im Bereich IT-Outsourcing sinnvoll ist.

Gerade abseits des inflationären Massenmarktes haben sich in den vergangen Jahren weltweit einige Internet Service Provider in der Business Class etabliert. Besonders im Bereich der Mittelstands- und Großkunden ist langjährige Projekterfahrung, fundierte Support-Leistung und individueller Service gefragt. Themen wie Datensicherheit, Hochverfügbarkeit und Vertrauenswürdigkeit im Umgang mit sensiblen Prozess- und Informationsdaten sind weitere Kriterien in der Auswahl des richtigen Outsourcing-Partners.

Führende Unternehmen haben sich bereits vor vielen Jahren auf das Business-Segment mit all seinen besonderen Anforderungen spezialisiert und bieten die gesamte Wertschöpfungskette der IT-Infrastruktur aus einer Hand an. Vom persönlichen Ansprechpartner während des Projektprozesses, über die Konfiguration individueller Serversysteme bis hin zu deren professionellen Bereitstellung in bis zu drei geografisch von einander getrennten Rechenzentren in Deutschland. Komplette Windows- und Linux-Abteilungen sorgen für fundierten technischen Support, und eigene Systemtechniker überwachen das Datacenter vor Ort.

Die Migration sicherheitsrelevanter Datensätze und Applikationen im Rahmen eines Outsourcings und der Umgang mit hochkomplexen Server-Strukturen erfordern ein partnerschaftliches Grundverhältnis zwischen dem Unternehmen und dem externen Dienstleister. Das dynamische Auffinden neuer und innovativer Lösungsansätze ist hierbei ein immer wiederkehrender Findungsprozess.

Die IT eines jeden Unternehmens, einer Gemeinde oder Institution wird nicht umsonst meist als Herzstück bezeichnet. "Try and error" mag sympathisch klingen, ist im Business-Segment jedoch als konstruktive Herangehensweise deplatziert. Im Umgang mit unternehmenskritischen Entscheidungsoptionen wird eher mit dem Motto "Gut gemeint ist das Gegenteil von gut gemacht" ein Schuh daraus. In diesem Sinne. (centron: ra)

centron: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Grundlagen

  • Automatisierte Speicherrichtlinien & Daten-GPS

    Die Globalisierung hat die Welt schrumpfen lassen. Nicht nur Reisende ziehen heute rund um den Globus, auch Daten sind dank Cloud Computing äußerst mobil und werden von Unternehmen aus den unterschiedlichsten Gründen zwischen Rechenzentren verschoben. Wir Menschen fühlen uns im eigenen Zuhause am sichersten. Auch für Unternehmensdaten gilt, dass das Risiko sie bei der Migration über Ländergrenzen hinweg zu verlieren, natürlich steigt. Als Mensch ist es heute mittels GPS sehr einfach, einen Standort zu bestimmen. Damit auch Unternehmen immer genau wissen, wo ihre Daten physisch gespeichert sind, bieten sich dank automatisierten Speicherrichtlinien und einem Daten-GPS neue Methoden, den exakten Standort von Daten festzulegen.

  • Mit SaaS & HaaS die IT-Abteilung entlasten

    In vielen Unternehmen stehen CIOs vor der Aufgabe, mit einer sich rasch entwickelnden IT-Welt Schritt halten zu müssen. Hinzu kommt, geeignetes Personal mit dem entsprechenden Know-how zu finden und sich stets gegen zunehmende Sicherheitsrisiken zu wappnen. Diese Herausforderungen beanspruchen zeitliche und finanzielle Ressourcen in der IT-Abteilung, die Unternehmen an anderer Stelle dringender bräuchten. Im Rahmen von Managed Services wie Software-as-a-Service (SaaS) und Hardware-as-a-Service (HaaS) werden Standardaufgaben an externe Dienstleister ausgelagert. Das schafft Freiräume und entlastet die IT-Abteilung. Welche Fragen sind relevant, um zu erkennen, ob auch das eigene Unternehmen von Managed Services profitieren kann.

  • Die Zukunft des File Sharing

    Um den Austausch von Forschungsdaten zwischen verschiedenen Teams am CERN zu ermöglichen, erfand Tim Berners-Lee in den achtziger Jahren, als Nebenprodukt sozusagen, das Internet. Heute ist das Internet die tragende Säule der weltweiten Kommunikation und aus unserem digitalen Leben nicht mehr wegzudenken. Überraschenderweise hat sich seit den frühen Tagen des Internets kaum etwas verändert: Nach wie vor werden für die Übermittlung von Dateien Protokolle aus den Anfangstagen des Internets genutzt. Zum damaligen Zeitpunkt war jedoch eine Welt, in der Datenmengen exponentiell wachsen, Hacker an allerlei Daten interessiert sind und Organisationen in denen zehntausende Mitarbeiter täglich millionenfach Dateien teilen, noch nicht vorstellbar. Worauf sollten Unternehmen also achten, wenn sie eine zukunftssichere File Sharing-Lösung nutzen möchten? Und welche neuen Technologien halten Einzug um Filesharing sicherer, komfortabler und schneller zu machen?

  • File Sharing im Unternehmen: Strategie gesucht

    Um Daten auszutauschen setzen die meisten Unternehmen noch immer auf die gute alte E-Mail, auch wenn diese Technologie offensichtlich nicht mehr auf dem neuesten Stand der Technik ist. Auch das ebenso veraltete FTP ist noch weit verbreitet, wenn es darum geht größere Dateien zu übermitteln. Den IT-Alptraum perfekt machen, intern oft nicht überwachte, File-Sharing-Dienste in der Cloud a la Dropbox & Co. Um striktere Compliance-Vorgaben zu erfüllen und die offensichtlich nicht gegebene Datensicherheit für ihr Unternehmen zu gewährleisten suchen IT-Verantwortliche suchen händeringend nach eine umfassenden Strategie um die genannten, unzuverlässigen Werkzeuge zu ersetzen und somit die Kontrolle über ihre sensiblen Daten zurückzugewinnen.

  • Privacy Shield und die Folgen

    Am 1. August 2016 trat das neue Privacy Shield-Abkommen in Kraft, das für Kunden und Anbieter von Cloud Computing-Services wieder Rechtssicherheit bieten und den transatlantischen Datenfluss wiederherstellen soll. Ob Privacy Shield die Nutzer besser schützen wird als der Vorgänger Safe Harbor wird von vielen Experten jedoch bezweifelt. Auch Subhashini Simha von Thru zweifelt das Abkommen an. Ihre Einschätzung der Folgen von Privacy Shield für Unternehmen hat sie in diesem Artikel zusammengefasst. Demnach benötigen Unternehmen zukünftig mehr denn je Flexibilität ihre Daten im Notfall auch im eigenen Rechenzentrum zu hosten und sie bei sich ändernder Rechtslage aus anderen Regionen abzuziehen.

  • Herausforderungen im Wissensmanagement

    Der Erfolg eines Projekts hängt von vielen Faktoren ab: Unterstützung durch das Top-Management, entsprechende Organisationsstrukturen sowie qualifizierte Mitarbeiter. Zudem spielt Wissen eine wichtige Rolle im Projektmanagement: Welche Methode eignet sich für das Projekt? Mit welchen Maßnahmen lässt sich das Projektziel erreichen? Wie können die Projektanforderungen erfüllt werden? Diese und weitere Fragen müssen Projektleiter beantworten können. Das Problem: Oftmals sind sich diese gar nicht bewusst, was sie und ihre Mitarbeiter wissen oder eben auch nicht wissen. Ein professionelles Wissensmanagement kann das Projektmanagement wirkungsvoll unterstützen, indem es vorhandenes Wissen bündelt, neue Erkenntnisse aufnimmt und alles für zukünftige Projekte verfügbar macht.

  • Unified Communications & Cloud-Kommunikation

    Den Begriff "Unified Communications" (UC) gibt es schon seit vielen Jahren. Er bezeichnet die Integration von Kommunikationsmedien in einer einheitlichen Anwendungsumgebung. Durch die Zusammenführung verschiedener Kommunikationsdienste soll UC die Erreichbarkeit der Kommunikationspartner verbessern und damit die Geschäftsprozesse beschleunigen.

  • Multi Cloud Sourcing

    Die Vorteile von Cloud Computing sind inzwischen bekannt: hohe Flexibilität und Skalierbarkeit zu genau kalkulierbaren Kosten. Doch wer Dienste von mehreren Anbietern nutzt, steht schnell vor einem Problem. Er muss die nötigen Informationen jedes Mal neu übertragen, wodurch unterschiedliche Datenbestände und Mehraufwand für das Management entstehen können. Ein einfaches Springen von Wolke zu Wolke ermöglicht Multi Cloud Sourcing. Für viele Unternehmen ist die Hybrid Cloud attraktiv. Sie kombiniert Skalierbarkeit mit Effizienz und verspricht zusätzlich Kostenersparnisse. Denn die Kunden müssen keine teuren Kapazitäten für Spitzenzeiten bereithalten, die im Rest des Jahres nicht genutzt werden.

  • Cloud als Backup-Speicher

    Rasant wachsende Datenmengen sowie die steigende Abhängigkeit der Unternehmen von ihren operativen Daten setzen die IT-Abteilung gewaltig unter Druck. CIOs müssen daher ihre Strategie für das Datenmanagement den veränderten Realitäten anpassen. Ein mögliches Werkzeug hierfür sind IT-Ressourcen aus der Cloud, die in die Backup- und Storage-Infrastruktur eingebunden werden. Die IT-Abteilung kann es sich nicht mehr leisten, auf die Cloud zu verzichten. Immer mehr Unternehmen in Deutschland setzen mittlerweile auf diese Technologie. In der Studie "Cloud-Monitor 2015" von KPMG und Bitkom vermelden die Analysten, dass bereits 44 Prozent der deutschen Unternehmen IT-Leistungen aus der Cloud beziehen. Weitere 24 Prozent planen oder diskutieren noch über den Einsatz. Dabei sind die gemachten Erfahrungen durchweg positiv, wie bis zu 78 Prozent der Befragten berichten.

  • Mit Cloud-Datenbanken vertraut machen

    In IT-Abteilungen vollzieht sich der größte Umbruch seit Einführung des PC und die modernen Rechenzentren müssen weiterentwickelt werden, um mit dieser Entwicklung Schritt zu halten. Dies ist besonders kritisch, da die IT für fast alle Geschäftsfunktionen eine immer wichtigere Rolle spielt. Unternehmen jeder Größe nutzen alle verfügbaren Technologien und Best Practices, um die Abläufe zu optimieren und Ineffizienzen zu reduzieren, und für viele bedeutet dies in erster Linie zwei Dinge: Virtualisierung und Cloud Computing. Jede IT-Abteilung versucht Zeit zu sparen, die Produktivität zu steigern und Abläufe zu optimieren. Mithilfe der Cloud und der Virtualisierung können in diesem Zusammenhang diese Komponenten nun im gesamten Unternehmen effizienter gestaltet werden.