- Anzeige -


Sie sind hier: Startseite » Fachartikel » Grundlagen

Auslagerung des Application Management


"App" in die Cloud: Erfolgsformel für Application Management Services
Vielfach lagern Unternehmen einfach den aktuellen Status quo ihrer Applikationslandschaft aus – ohne vorher das Anwendungsportfolio einer kritischen Untersuchung zu unterziehen


Von Ingrid Britz-Averkamp, freie Fachjournalistin

(21.04.11) - Wachstum der IT-Landschaft über Jahre hinweg, partielle Anpassung der IT an die Geschäftsanforderungen oder länderspezifische Systeme – meist ist die IT in Unternehmen ein bunter Flickenteppich. Diese Heterogenität und die ständig neuen technischen Innovationen stellen Application Management-Dienstleister vor Herausforderungen. Unternehmen selbst können sie kaum bewältigen und nutzen externe Application Management Services (AMS), die weltweit und mit Expertenwissen bereit gestellt werden.

Doch wie lässt sich in einem dynamischen Umfeld mit wachsenden Kundenanforderungen dauerhaft ein hohes Effizienz- und Qualitätsniveau bei Application Management sicherstellen?

Automatisiert und standardisiert zum Erfolg
Um diesen Spagat zu schaffen, setzen erfolgreiche AMS-Anbieter auf eine durchgehende Automatisierung und Standardisierung der IT-Service-Prozesse. Denn nur so lässt sich eine gleichbleibend hohe Qualität bei niedrigen Kosten erzeugen. Durch alle Ebenen zieht sich das Grundprinzip der Standardisierung und Automatisierung. Dies beginnt bei den internen Prozessen und setzt sich bei der Bearbeitung von Kundenanfragen fort. Hier sorgt ein einheitliches globales Ticket-Tool für alle Kunden und Regionen für eine reibungslose grenzüberschreitende Zusammenarbeit und eine schnelle Lösung von Incidents.

Nach dem Prinzip "Von den Besten lernen" werden die Kernkompetenzen der einzelnen Fachleute in einem zentralen Knowledge Management(KM)-System projekt- und länderübergreifend zusammengeführt. Das Wissen aus diesem Expertensystem wird über Praxis-Communities ausgetauscht und schließlich in kontinuierliche Verbesserungen der internen Prozesse übertragen.

Deshalb können externe Dienstleister die Anwendungen oft nicht nur kostengünstiger und effizienter betreiben, sie können gleichzeitig Innovationen kontinuierlich treiben und nach den Geschäftsanforderungen ausrichten – als ihre Kernkompetenz. Vorausgesetzt man wählt einen Partner für das Applikationsmanagement, der fundiertes Branchenverständnis mitbringt.

Achtung, fertig, los – oder doch nicht ganz?
Beim Auslagern des Application Management an einen externen Dienstleister haben Unternehmen einiges zu beachten. Die Prozesse müssen für AMS zunächst auf ihre Relevanz geprüft werden. Wie vor jedem Outsourcing-Projekt stellt sich als erstes die Frage: Welche Aufgaben sollen im Unternehmen verbleiben und was kann ein AMS-Provider besser leisten?

Wettbewerbsdifferenzierende und geschäftskritische Kernprozesse muss ein Unternehmen immer selbst in der Hand behalten und seine knappen Personalressourcen genau darauf konzentrieren. Die Herausforderung der Application Management Experten ist es jedoch, die Erhöhung der Produktivität durch die Integration der IT in die Geschäftsabläufe zu gewährleisten.

Wo lauern die Stolpersteine?
Doch Unternehmen müssen auch ihren Teil dazu beitragen, dass die Vergabe von Application Management an einen Dienstleister zum Erfolg wird. "Oft ist es den Kunden nicht bewusst, dass sie die Basis für eine fruchtbare Partnerschaft zunächst im eigenen Haus schaffen müssen. Denn wie will ein Auftraggeber später effizient mit einem Dienstleister zusammenarbeiten und diesen steuern, wenn er nicht eine entsprechende Methodik etabliert sowie saubere Prozesse für Application Management aufgesetzt hat?", gibt Andreas Degenhardt, Global Head of Application Management Services bei Siemens IT Solutions and Services, zu bedenken. Nur damit schafft er die entscheidenden Voraussetzungen für einen möglichst reibungslosen Übergang. Dabei kann auch schon von Beginn an ein IT-Services-Berater seine Best Practices Methoden sowie die nötige externe Brille einbringen.

Ein weiterer Fallstrick: Vielfach lagern Unternehmen einfach den aktuellen Status quo ihrer Applikationslandschaft aus – ohne vorher das Anwendungsportfolio einer kritischen Untersuchung zu unterziehen. Die Vorbereitungsphase ist jedoch der ideale Zeitpunkt, um viele Applikationen zu konsolidieren und zu harmonisieren. Hier sollten sich Unternehmen fragen, welche Anwendungen ihr Kerngeschäft tatsächlich braucht und auf welche Lösungen sie eventuell verzichten können.

Neben unzureichend definierten Metriken, um sowohl IT- als auch Geschäftsziele überhaupt definieren und messen zu können, erweisen sich auch fehlende Standards als Stolpersteine. Erfolgskritisch für komplexe AMS-Vorhaben sind insbesondere Six Sigma-Qualitätsprinzipien, ITIL (IT Infrastructure Library), ein Regelwerk von Best Practices für eine strukturierte Umsetzung von IT-Service-Management, oder auch ISO-Zertifizierungen. Diese industrialisierten Service-Prozesse bilden den Schlüssel zum erfolgreichen Qualitätsmanagement, nicht nur im eigenen Unternehmen, sondern auch in Bezug auf den Dienstleister.

Wissen ist Macht
Unabhängig davon, ob Dienstleistungen off-shore oder near-shore erbracht werden, dabei ist die Kommunikation nicht zu unterschätzen. Existiert vor Ort etwa kein dedizierter Ansprechpartner, der nicht nur mit den lokalen Gegebenheiten, sondern auch mit den spezifischen Bedürfnissen und Anforderungen des Kunden vertraut ist, hat dieser schlechte Karten. Schließlich sind Schwierigkeiten auch dann programmiert, wenn Unternehmen so auf die Bits und Bytes bei der Vertragserfüllung fokussiert sind, dass nicht mehr genügend Freiraum für Innovationen in der Zusammenarbeit mit dem Dienstleister bleibt.

Denn erst durch die spezifische Beratung kann AMS für den Kunden einen Mehrwert bringen. Besonders wenn zum IT-Expertenwissen eine hohe Branchenkompetenz hinzu kommt, wie Degenhardt beschreibt: "Für Kunden im Produktionssektor bringen die Berater das Branchen-Know-how direkt aus der Industrie mit und werden an einer langjährigen Kundenbeziehung incentiviert. Mit diesem Ansatz können wir unseren Kunden das beste Preis-Leistungs-Verhältnis anbieten: Günstige Preise aufgrund der weitgehend industrialisierten Serviceprozesse und bestmögliche Beratung dank unserer besonderen Branchenexpertise von erfahrenen und langjährigen Mitarbeitern." Die Unternehmen sollten durch die Unterstützung externer Application Management Experten also nicht nur Kosten sparen, sondern auch von deren Wissen profitieren. (Siemens IT Solutions and Services: ra)

Siemens IT Solutions and Services: Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Grundlagen

  • Es ist an der Zeit, die Cloud zu dezentralisieren

    Heute beheimatet die Erde 206 souveräne Staaten. Souveränität ist, wie uns das Lexikon erklärt, das "volle Recht und die Macht eines Regierungsorgans über sich selbst, ohne Einmischung von außen". In gewisser Weise hat die in den frühen 2000er Jahren eingeführte Public Cloud die Souveränität vieler Staaten in Frage gestellt: Sie zentralisierte Daten- und Cloud Computing-Services auf sehr effiziente Weise, um Kunden in jeder Ecke der Welt zu bedienen - eine Welt ohne Grenzen. Verbraucher und Unternehmen begrüßten das befreiende Konzept, das sich schnell weiterentwickelte.

  • Cloud-Sicherheit & Shared Responsibility-Modell

    Viele Unternehmen setzen auf eine Kombination verschiedener Backup-Lösungen, häufig über mehrere Standorte hinweg. Im Krisenfall macht es solch eine Strategie jedoch oft schwierig, Dateien zeitnah wiederherzustellen. Dagegen bieten Cloud-integrierte Lösungen einfaches Testen der Disaster-Recovery-Strategie und im Notfall die rasche Rückkehr zum Normalbetrieb. Daten sind für Unternehmen heute wertvolle Rohstoffe und müssen besser gesichert werden als je zuvor. Gerade in Zeiten weltweiter Ransomware-Attacken ist eine profunde Backup- und Disaster Recovery-Strategie daher unabdingbar geworden, um im Krisenfall sofort reagieren zu können und die Geschäftskontinuität zu sichern. Doch bei der Disaster Recovery geht es nicht nur um Ransomware-Bedrohungen und Advanced Threats, sondern ebenso um die Wiederherstellung nach Hardware-Ausfällen von IT-Komponenten wie Servern und Storage-Systemen, aufgrund menschlicher Fehler oder einer Naturkatastrophe.

  • Wächter des Cloud-Datenschatzes

    Im Zuge der Digitalisierung wächst die Datenmenge, die Unternehmen täglich verarbeiten, stetig an. Dies spiegelt sich auch in der gestiegenen Nutzung von Cloud Computing-Anwendungen in den vergangenen Jahren wider. Unternehmensdaten sind rund um die Uhr überall zugänglich, ermöglichen effiziente Arbeitsabläufe und - zumindest auf den ersten Blick - etwas weniger Verwaltungsaufwand für die IT-Abteilung. Dieser Effekt relativiert sich jedoch, wenn man die Cloud Computing-Nutzung unter dem Aspekt der Sicherheit betrachtet. Die damit einhergehenden Risiken und neuen Bedrohungen erfordern fortschrittliche Sicherheitstechnologien, um den Schutz von Unternehmensdaten gewährleisten zu können.

  • Cloud-Sicherheit: Shared Responsibility-Modell

    Viele Unternehmen setzen auf eine Kombination verschiedener Backup-Lösungen, häufig über mehrere Standorte hinweg. Im Krisenfall macht es solch eine Strategie jedoch oft schwierig, Dateien zeitnah wiederherzustellen. Dagegen bieten Cloud-integrierte Lösungen einfaches Testen der Disaster-Recovery-Strategie und im Notfall die rasche Rückkehr zum Normalbetrieb. Daten sind für Unternehmen heute wertvolle Rohstoffe und müssen besser gesichert werden als je zuvor. Gerade in Zeiten weltweiter Ransomware-Attacken ist eine profunde Backup- und Disaster Recovery-Strategie daher unabdingbar geworden, um im Krisenfall sofort reagieren zu können und die Geschäftskontinuität zu sichern.

  • DevOps: Eine Gefahr oder die Zukunft für ITSM?

    Der digitale Wandel beeinflusst die Unternehmenslandschaft stark. Auch im IT-Service-Management stehen Entscheider zahlreichen neuen Herausforderungen gegenüber. Die Verzahnung von Entwicklung und Betrieb, auch Development and Operations, kurz DevOps, spielt eine immer größere Rolle. Häufig stellen sich die Verantwortlichen jedoch eine Frage: Ist DevOps eine Gefahr oder die Zukunft des IT-Service-Managements (ITSM)? Zu den Ursachen für etwaige Bedenken zählt unter anderem die Infragestellung der Stabilität des IT-Betriebes. Angebote aus der Cloud werden mit einem Angriff auf die eigene IT gleichgesetzt und gestandene ITIL-Change-Manager können sich eine weitere Verkürzung und Vereinfachung der Prozesse nicht mehr vorstellen. Dabei lässt sich bei Betrachtung des Bereichs "Entwicklung und Betrieb von Applikationen" feststellen, dass es zahlreiche Gründe gibt, sich mit den Inhalten von DevOps zu befassen. Veränderungen im IT-Service-Management stellen dabei stets eine Notwendigkeit dar.

  • Das WAN weicht in die Wolke

    Unternehmen als abgeschlossene Einheiten sind passé. Neue Arbeitskonzepte wie mobiles Arbeiten oder BYOD lassen Mauern bröckeln - gerade auch im Hinblick auf Unternehmensnetzwerke. Unternehmen mit Niederlassungen oder Filialen im Handel müssen neben stationärer IT wie Kassensystemen auch mobile oder temporäre Geräte ins Netzwerk einbinden, zum Beispiel Digital-Signage-Terminals. Und Kunden setzen meist ein offenes WLAN voraus. Die digitale Transformation stellt neue Herausforderungen an das vormals Hardware-orientierte Wide-Area-Network (WAN)-Management. Software- und Cloud-definierte Ansätze erleichtern die Administration bei gleichzeitig hohen Sicherheitsstandards.

  • DevOps gegen IT-Operations

    Ein IT-Infrastrukturteam hat es heutzutage nicht leicht. Einerseits muss es den Betrieb des herkömmlichen Rechenzentrums aufrechterhalten, gleichzeitig soll es die strategische Digitalisierung des Unternehmens vorantreiben. Als wenn das nicht schon Herausforderung genug wäre, sollen die IT-ler zusätzlich komplett neue Technologien bereitstellen, um die neuen DevOps-Kollegen bestmöglich bei Neuerungen und schnelleren Release-Zyklen zu unterstützen. Anforderungen von DevOps an eine flexible und automatisierte Unternehmensinfrastruktur sind nicht immer einfach zu erfüllen und so wird der Trend zu DevOps für Infrastrukturteams eine zusätzliche Belastung. Prallen doch die unterschiedlichen Welten der IT-Operations und des DevOps-Teams aufeinander.

  • Automatisierte Speicherrichtlinien & Daten-GPS

    Die Globalisierung hat die Welt schrumpfen lassen. Nicht nur Reisende ziehen heute rund um den Globus, auch Daten sind dank Cloud Computing äußerst mobil und werden von Unternehmen aus den unterschiedlichsten Gründen zwischen Rechenzentren verschoben. Wir Menschen fühlen uns im eigenen Zuhause am sichersten. Auch für Unternehmensdaten gilt, dass das Risiko sie bei der Migration über Ländergrenzen hinweg zu verlieren, natürlich steigt. Als Mensch ist es heute mittels GPS sehr einfach, einen Standort zu bestimmen. Damit auch Unternehmen immer genau wissen, wo ihre Daten physisch gespeichert sind, bieten sich dank automatisierten Speicherrichtlinien und einem Daten-GPS neue Methoden, den exakten Standort von Daten festzulegen.

  • Mit SaaS & HaaS die IT-Abteilung entlasten

    In vielen Unternehmen stehen CIOs vor der Aufgabe, mit einer sich rasch entwickelnden IT-Welt Schritt halten zu müssen. Hinzu kommt, geeignetes Personal mit dem entsprechenden Know-how zu finden und sich stets gegen zunehmende Sicherheitsrisiken zu wappnen. Diese Herausforderungen beanspruchen zeitliche und finanzielle Ressourcen in der IT-Abteilung, die Unternehmen an anderer Stelle dringender bräuchten. Im Rahmen von Managed Services wie Software-as-a-Service (SaaS) und Hardware-as-a-Service (HaaS) werden Standardaufgaben an externe Dienstleister ausgelagert. Das schafft Freiräume und entlastet die IT-Abteilung. Welche Fragen sind relevant, um zu erkennen, ob auch das eigene Unternehmen von Managed Services profitieren kann.

  • Die Zukunft des File Sharing

    Um den Austausch von Forschungsdaten zwischen verschiedenen Teams am CERN zu ermöglichen, erfand Tim Berners-Lee in den achtziger Jahren, als Nebenprodukt sozusagen, das Internet. Heute ist das Internet die tragende Säule der weltweiten Kommunikation und aus unserem digitalen Leben nicht mehr wegzudenken. Überraschenderweise hat sich seit den frühen Tagen des Internets kaum etwas verändert: Nach wie vor werden für die Übermittlung von Dateien Protokolle aus den Anfangstagen des Internets genutzt. Zum damaligen Zeitpunkt war jedoch eine Welt, in der Datenmengen exponentiell wachsen, Hacker an allerlei Daten interessiert sind und Organisationen in denen zehntausende Mitarbeiter täglich millionenfach Dateien teilen, noch nicht vorstellbar. Worauf sollten Unternehmen also achten, wenn sie eine zukunftssichere File Sharing-Lösung nutzen möchten? Und welche neuen Technologien halten Einzug um Filesharing sicherer, komfortabler und schneller zu machen?