- Anzeige -


Sie sind hier: Startseite » Fachartikel » Grundlagen

Shared Services versus dedizierte Services


Ein "shared Server" ist im Wortsinn ein geteilter Server - Der "dedicated Server" ist die eigene Hardware
Ein wichtiges, produktunabhängiges Kriterium ist der physische Ort des Hochsicherheitscenters, in welchem der (shared-) Server untergebracht ist


Von Nils Kaufmann, Key Account Manager, QMB Centron GmbH

(25.08.09) - Der IT-Markt – unendliche Weiten. Jeden Tag, nahezu stündlich, wechseln sich Hiobsbotschaften bezüglich des einen Segmentes mit Gründerzeithysterien aus dem anderen Segment ab. Es war von Anfang an ein außergewöhnliches Umfeld und wird es wohl auch auf absehbare Zeit bleiben. Kaum eine andere Industrie ist solch extremen Schwankungen und radikalen Veränderungen in Rekordtempo unterworfen, wie das IT-Business. Da nimmt es nicht wunder, wenn sowohl der normale User zu Hause, als auch der kaufmännische Entscheider eines mittelständischen Unternehmens fast schon naturgemäß dem aktuellen Wissensstand um die technologischen Möglichkeiten und Anforderungen seiner IT immer mindestens ein klein wenig hinterherhinken.

Selbst gestandenen IT-Profis fällt es zuweilen schwer, den aktuellen Hype vom zukunftsweisenden Trend ad hoc zu unterscheiden und vor allem auch die richtigen Schlüsse daraus zu ziehen. Was, warum und wie viel soll ich in welche IT-Struktur investieren, damit ich zumindest während der Amortisations- oder auch Vertragslaufzeit so lange wie möglich die optimale Umgebung sowohl für aktuelle, als auch noch kommende Anforderungen zur Verfügung stehen habe. In einem technologischen Umfeld, in welchem kaum etwas älter ist als der Prozessor von gestern – vielleicht bis auf den kalten Kaffe auf dem Schreibtisch – stehen sowohl private als auch gewerbliche Kaufentscheider vor einem Problem. Die Wahrscheinlichkeit einer langfristig suboptimalen Entscheidung ist denkbar groß.

Aus diesem Blickwinkel heraus wollen wir uns nun im Folgenden dem Hosting-Segment zuwenden und der Frage, was von der Vielzahl der Angebote aus Sicht eines Laien zu halten ist. Hierbei ist grundsätzlich davon auszugehen, dass Anbieter, welche sich über Jahre in diesem hart umkämpften Marktumfeld behauptet haben, unzweifelhaft Ihre Daseinsberechtigung haben.

Am Anfang steht der Kunde. Und mit ihm eine Reihe von Wünschen, Vorstellungen und Anforderungen bezüglich seines IT-Projektes. Eine der drängendsten Fragen bezieht sich in der Regel auf die anfallenden Kosten, und dies ist spätestens der Punkt, an dem das Angebot unübersichtlich zu werden scheint. Wie kann es sein, dass sich auf den ersten Blick ähnelnde Produkte so ungeheuerlichen Preisschwankungen unterworfen sind? Der oft zitierte Autovergleich taugt hier nicht – ein Dacia lässt sich ebenso wie ein Maybach ansehen und erfühlen, ein (shared)-Server nicht.

Für den Laien scheinen ein 5-Euro-Webhosting-Paket und ein 300-Euro-Dedicated Server selbiges zu tun, nämlich ein Produktivumfeld für eine beliebige Applikation respektive Anwendung bereitzustellen. Hier liegt ein anderer Autovergleich nahe: Webhosting ist wie eine Fahrgemeinschaft, bei welcher man weder Einfluss auf die Mitfahrer und deren liebenswerte Eigenheiten, noch auf die Art und Ausstattung des Fahrzeuges hat; die Mitnahme von Gepäck oder spontane Geschwindigkeitskorrekturen sind nur in stark beschränktem Maße möglich. Warum sollte man sich also überhaupt für diese Transportmöglichkeit entscheiden? Wer nur einfach von A nach B möchte, fährt mit dieser nahezu unschlagbar günstigsten Variante am besten.

Man teilt sich nicht nur Platz und Leistung, sondern vor allem auch die Kosten. Der Vollständigkeit halber muss an dieser Stelle angemerkt werden, dass es natürlich immense Qualitäts- und Ausstattungsunterschiede auch innerhalb dieses Segments gibt, jedoch bleibt sich das zugrunde liegende Prinzip gleich. Ein "shared Server" ist im Wortsinn ein geteilter Server.

Der "dedicated Server" ist die eigene Hardware. In diesem Zusammenhang das eigene Auto. Die Wahl der Größe und Ausstattung ist ausschließlich den individuellen Ansprüchen und den zur Verfügung stehenden finanziellen Ressourcen unterworfen. Die Berücksichtigung sicherheitsrelevanter Einbauten hat hier oftmals höchste Priorität. Die Vorteile liegen auf der Hand: Als einziger Fahrer bestimmt der Kunde, wie er wohin fährt. Nachträgliche Umbau- und Tuningarbeiten oder etwaige Beifahrer bestimmt er selbst. Die Kosten liegen bei dieser Option allerdings ebenfalls alleine beim Halter.

Vor- und Nachteile müssen dem Kunden glasklar bei dessen Entscheidungsfindung benannt werden. Was sind ihm individuelle Konfigurierbarkeit, Skalierbarkeit und Sicherheit wert? Diese Skills lassen sich, vereinfacht ausgedrückt, ganz einfach in den zu erwartenden Kosten abbilden. Ein sehr wichtiges, produktunabhängiges Kriterium ist der physische Ort des Hochsicherheitscenters, in welchem der (shared-) Server untergebracht ist. Befindet sich das Datacenter am anderen Ende der Welt, oder wird es, allen gesetzlichen Auflagen und Sicherheitsbestimmungen entsprechend, in Deutschland betrieben? Wer darauf Wert legt, sollte sich bei seinem zukünftigen IT-Partner detailliert erkundigen.

Für Internet-Service-Provider steht die unbedingte Notwendigkeit einer offenen und ehrlichen Beratung des Kunden daher immer im Vordergrund. Getreu dem Motto "vom Kunden zum Freund" muss der (zugegeben oftmals herausfordernde) Weg hin zur optimalen Angebotserstellung und schließlich Auftragserteilung gemeinsam beschritten werden. Braucht der kleine Handwerksbetrieb nur eine kleine Onlineplattform, um sich zeitgerecht präsentieren zu können, dann muss das auch reichen.

In diesem Fall spricht der Kostenfaktor im Bezug auf die Anforderung eine ganz klare Sprache, das heißt, dem Kunden genügt ein rudimentäres Hosting-Paket, um seine Wünsche in punkto Webpräsenz verwirklicht zu wissen. Anders sieht es beim Business-Kunden aus, der unternehmenskritische Daten gesichert haben möchte, beim Traffic-lastigen Onlineshop-Besitzer, für den Erreichbarkeit eine existenzielle Frage ist, oder beim stark außendienstorientierten Unternehmen, dessen Erfolg maßgeblich vom zuverlässigen und gesicherten mobilen Zugriff auf elektronische Nachrichten und Daten seiner Vertriebsmitarbeiter beim Kunden vor Ort abhängt. Der Einsatz von dedizierten Servern ist in diesem Zusammenhang wohl dringend angeraten.

Ein wesentlicher Punkt, über den sich ein IT-Interessent klar werden muss, ist die Tatsache, dass es neben all den harten Fakten eines Hosting-Services, wie die Konfiguration des Systems und die zu installierende Applikation, noch einen ganz erheblichen Kostenfaktor gibt- welcher am Anfang einer Kundenbeziehung schwierig zu vermitteln ist, jedoch entscheidend sein kann, weit mehr noch als die schnelle CPU oder der teure Controller. Die Rede ist von Support. Da Support weder ein markenrechtlich noch verfahrenstechnisch geschützter Begriff ist, stellt er sich meist als weitaus dehnbarer als Zeit dar. Unternehmenspolitik und anvisierte Kundschaft des jeweiligen Anbieters sind hier absolut ausschlaggebend.

Der mögliche Support-Aufwand eines Unternehmens ist im Grunde ein simples Rechenspiel. Wer ungefähr weiß, was eine Arbeitsstunde eines ausgebildeten Administratoren kostet, der kann sich vorstellen, wie viel persönlicher Support bei einem monatlichen 29 Euro-Paket, inklusive aller bereitgestellter Hardwarestruktur, eingeplant ist. Dies hat selbstverständlich seine Berechtigung, eine klar definierte Zielgruppe. Ein Kunde, welcher sich für ein solches Paket entscheidet, ist entweder selbst ein Profi, oder setzt ganz einfach andere Prioritäten.

Ein Unternehmen, welches ganz oder teilweise seine IT-Abteilung auslagern und somit konsolidieren möchte, ist auf einen individuellen und kompetenten Support definitiv angewiesen, will man vermeiden, dass der Computerkurs-geschulte Praktikant kurzer Hand den Firmenbetrieb stilllegt oder dem geschätzten Mitbewerber versehentlich interne Kennzahlen online zur Verfügung stellt. Der Service zur Vermeidung solcher und ähnlicher Unglücke liegt im Angebot der Managed Server.

Dies bedeutet, auch hier von Anbieter zu Anbieter unterschiedlich interpretiert, der Provider kümmert sich um den ständigen Betrieb des Servers, dessen Überwachung bis hin zum Einspielen von Software-Updates und ähnlichem. Die dem zu Grunde liegenden Service Level Agreements (SLAs) bestimmen den Umfang eines solchen "Sorglos-Paketes". Sicherheitsstandards im physikalischen Sinn, wie beispielsweise eine unterbrechungsfreie Stromversorgung, oder auch pro aktives Monitoring, welches sich anbahnende Risiken erkennt und vorher definierte Eskalationspläne in Gang setzt, sind einzuhalten. Nicht zuletzt die Erreichbarkeit und Kompetenz der technischen Hotline sind ausschlaggebend. Für ein Unternehmen macht ein Callcenter in Übersee keinen Sinn, ist es auf den direkten Draht zu der technischen Abteilung des Outsourcers angewiesen.

Zusammenfassend lässt sich feststellen, dass für jede Kundenanforderungen jeweils passende Produkte von dafür spezialisierten Anbietern existieren. Erworbene Kernkompetenzen sowohl im Massenmarkt als auch im Businessbereich werden professionell bedient.

Die führenden Dienstleister im Hosting-Bereich können im Gegensatz zu manch anderem traditionsbewussten Industriezweig mit Fug und Recht behaupten, gerade den Umständen zum Trotz hervorragend aufgestellt zu sein. Dieser Optimismus ist keineswegs, wie gemeinhin behauptet, auf das Fehlen von Information begründet, sondern darauf, dass die IT-Branche im Allgemeinen sich frühzeitig eine der wichtigsten Erkenntnisse des modernen Customer Relationship zu eigen gemacht hat: Statt Kunden für unsere Produkte zu suchen, kreieren wir Produkte für unsere Kunden. Die visionäre Vorwegnahme der Kundenbedürfnisse und Flexibilität in deren Bedienung haben die IT-Industrie als eine der führenden Größen der Weltwirtschaft etabliert. Und verglichen mit anderen Branchen stehen wir erst am Anfang. Unendliche Weiten. (centron: ra)

centron: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Grundlagen

  • Automatisierte Speicherrichtlinien & Daten-GPS

    Die Globalisierung hat die Welt schrumpfen lassen. Nicht nur Reisende ziehen heute rund um den Globus, auch Daten sind dank Cloud Computing äußerst mobil und werden von Unternehmen aus den unterschiedlichsten Gründen zwischen Rechenzentren verschoben. Wir Menschen fühlen uns im eigenen Zuhause am sichersten. Auch für Unternehmensdaten gilt, dass das Risiko sie bei der Migration über Ländergrenzen hinweg zu verlieren, natürlich steigt. Als Mensch ist es heute mittels GPS sehr einfach, einen Standort zu bestimmen. Damit auch Unternehmen immer genau wissen, wo ihre Daten physisch gespeichert sind, bieten sich dank automatisierten Speicherrichtlinien und einem Daten-GPS neue Methoden, den exakten Standort von Daten festzulegen.

  • Mit SaaS & HaaS die IT-Abteilung entlasten

    In vielen Unternehmen stehen CIOs vor der Aufgabe, mit einer sich rasch entwickelnden IT-Welt Schritt halten zu müssen. Hinzu kommt, geeignetes Personal mit dem entsprechenden Know-how zu finden und sich stets gegen zunehmende Sicherheitsrisiken zu wappnen. Diese Herausforderungen beanspruchen zeitliche und finanzielle Ressourcen in der IT-Abteilung, die Unternehmen an anderer Stelle dringender bräuchten. Im Rahmen von Managed Services wie Software-as-a-Service (SaaS) und Hardware-as-a-Service (HaaS) werden Standardaufgaben an externe Dienstleister ausgelagert. Das schafft Freiräume und entlastet die IT-Abteilung. Welche Fragen sind relevant, um zu erkennen, ob auch das eigene Unternehmen von Managed Services profitieren kann.

  • Die Zukunft des File Sharing

    Um den Austausch von Forschungsdaten zwischen verschiedenen Teams am CERN zu ermöglichen, erfand Tim Berners-Lee in den achtziger Jahren, als Nebenprodukt sozusagen, das Internet. Heute ist das Internet die tragende Säule der weltweiten Kommunikation und aus unserem digitalen Leben nicht mehr wegzudenken. Überraschenderweise hat sich seit den frühen Tagen des Internets kaum etwas verändert: Nach wie vor werden für die Übermittlung von Dateien Protokolle aus den Anfangstagen des Internets genutzt. Zum damaligen Zeitpunkt war jedoch eine Welt, in der Datenmengen exponentiell wachsen, Hacker an allerlei Daten interessiert sind und Organisationen in denen zehntausende Mitarbeiter täglich millionenfach Dateien teilen, noch nicht vorstellbar. Worauf sollten Unternehmen also achten, wenn sie eine zukunftssichere File Sharing-Lösung nutzen möchten? Und welche neuen Technologien halten Einzug um Filesharing sicherer, komfortabler und schneller zu machen?

  • File Sharing im Unternehmen: Strategie gesucht

    Um Daten auszutauschen setzen die meisten Unternehmen noch immer auf die gute alte E-Mail, auch wenn diese Technologie offensichtlich nicht mehr auf dem neuesten Stand der Technik ist. Auch das ebenso veraltete FTP ist noch weit verbreitet, wenn es darum geht größere Dateien zu übermitteln. Den IT-Alptraum perfekt machen, intern oft nicht überwachte, File-Sharing-Dienste in der Cloud a la Dropbox & Co. Um striktere Compliance-Vorgaben zu erfüllen und die offensichtlich nicht gegebene Datensicherheit für ihr Unternehmen zu gewährleisten suchen IT-Verantwortliche suchen händeringend nach eine umfassenden Strategie um die genannten, unzuverlässigen Werkzeuge zu ersetzen und somit die Kontrolle über ihre sensiblen Daten zurückzugewinnen.

  • Privacy Shield und die Folgen

    Am 1. August 2016 trat das neue Privacy Shield-Abkommen in Kraft, das für Kunden und Anbieter von Cloud Computing-Services wieder Rechtssicherheit bieten und den transatlantischen Datenfluss wiederherstellen soll. Ob Privacy Shield die Nutzer besser schützen wird als der Vorgänger Safe Harbor wird von vielen Experten jedoch bezweifelt. Auch Subhashini Simha von Thru zweifelt das Abkommen an. Ihre Einschätzung der Folgen von Privacy Shield für Unternehmen hat sie in diesem Artikel zusammengefasst. Demnach benötigen Unternehmen zukünftig mehr denn je Flexibilität ihre Daten im Notfall auch im eigenen Rechenzentrum zu hosten und sie bei sich ändernder Rechtslage aus anderen Regionen abzuziehen.

  • Herausforderungen im Wissensmanagement

    Der Erfolg eines Projekts hängt von vielen Faktoren ab: Unterstützung durch das Top-Management, entsprechende Organisationsstrukturen sowie qualifizierte Mitarbeiter. Zudem spielt Wissen eine wichtige Rolle im Projektmanagement: Welche Methode eignet sich für das Projekt? Mit welchen Maßnahmen lässt sich das Projektziel erreichen? Wie können die Projektanforderungen erfüllt werden? Diese und weitere Fragen müssen Projektleiter beantworten können. Das Problem: Oftmals sind sich diese gar nicht bewusst, was sie und ihre Mitarbeiter wissen oder eben auch nicht wissen. Ein professionelles Wissensmanagement kann das Projektmanagement wirkungsvoll unterstützen, indem es vorhandenes Wissen bündelt, neue Erkenntnisse aufnimmt und alles für zukünftige Projekte verfügbar macht.

  • Unified Communications & Cloud-Kommunikation

    Den Begriff "Unified Communications" (UC) gibt es schon seit vielen Jahren. Er bezeichnet die Integration von Kommunikationsmedien in einer einheitlichen Anwendungsumgebung. Durch die Zusammenführung verschiedener Kommunikationsdienste soll UC die Erreichbarkeit der Kommunikationspartner verbessern und damit die Geschäftsprozesse beschleunigen.

  • Multi Cloud Sourcing

    Die Vorteile von Cloud Computing sind inzwischen bekannt: hohe Flexibilität und Skalierbarkeit zu genau kalkulierbaren Kosten. Doch wer Dienste von mehreren Anbietern nutzt, steht schnell vor einem Problem. Er muss die nötigen Informationen jedes Mal neu übertragen, wodurch unterschiedliche Datenbestände und Mehraufwand für das Management entstehen können. Ein einfaches Springen von Wolke zu Wolke ermöglicht Multi Cloud Sourcing. Für viele Unternehmen ist die Hybrid Cloud attraktiv. Sie kombiniert Skalierbarkeit mit Effizienz und verspricht zusätzlich Kostenersparnisse. Denn die Kunden müssen keine teuren Kapazitäten für Spitzenzeiten bereithalten, die im Rest des Jahres nicht genutzt werden.

  • Cloud als Backup-Speicher

    Rasant wachsende Datenmengen sowie die steigende Abhängigkeit der Unternehmen von ihren operativen Daten setzen die IT-Abteilung gewaltig unter Druck. CIOs müssen daher ihre Strategie für das Datenmanagement den veränderten Realitäten anpassen. Ein mögliches Werkzeug hierfür sind IT-Ressourcen aus der Cloud, die in die Backup- und Storage-Infrastruktur eingebunden werden. Die IT-Abteilung kann es sich nicht mehr leisten, auf die Cloud zu verzichten. Immer mehr Unternehmen in Deutschland setzen mittlerweile auf diese Technologie. In der Studie "Cloud-Monitor 2015" von KPMG und Bitkom vermelden die Analysten, dass bereits 44 Prozent der deutschen Unternehmen IT-Leistungen aus der Cloud beziehen. Weitere 24 Prozent planen oder diskutieren noch über den Einsatz. Dabei sind die gemachten Erfahrungen durchweg positiv, wie bis zu 78 Prozent der Befragten berichten.

  • Mit Cloud-Datenbanken vertraut machen

    In IT-Abteilungen vollzieht sich der größte Umbruch seit Einführung des PC und die modernen Rechenzentren müssen weiterentwickelt werden, um mit dieser Entwicklung Schritt zu halten. Dies ist besonders kritisch, da die IT für fast alle Geschäftsfunktionen eine immer wichtigere Rolle spielt. Unternehmen jeder Größe nutzen alle verfügbaren Technologien und Best Practices, um die Abläufe zu optimieren und Ineffizienzen zu reduzieren, und für viele bedeutet dies in erster Linie zwei Dinge: Virtualisierung und Cloud Computing. Jede IT-Abteilung versucht Zeit zu sparen, die Produktivität zu steigern und Abläufe zu optimieren. Mithilfe der Cloud und der Virtualisierung können in diesem Zusammenhang diese Komponenten nun im gesamten Unternehmen effizienter gestaltet werden.