- Anzeige -


Sie sind hier: Startseite » Fachartikel » Grundlagen

Projekt- und Portfolio-Management auf Abruf


Durch das Angebot, PPM-Software als Software-as-a-Service beziehen zu können, ist die Einstiegshürde niedrig
Eine gute PPM-Lösung erlaubt aus Sicht der Unternehmensstrategie die Planung und Auswahl sowie die kontinuierliche Kontrolle und Bewertung des Projektportfolios


Peter Säckel:
Peter Säckel: Der Funktionsumfang einer PPM-Software muss die Gepflogenheiten eines Unternehmens widerspiegeln, Bild: CA

Von Peter Säckel, CA Deutschland

(25.01.10) - In Zeiten wirtschaftlicher Unsicherheit sind Führungskräfte angehalten, einen schnellen Return on Investment (ROI) aus den IT-Investitionen oder Entwicklungsprojekten zu erzielen. Als Steuerungs-Tool eignen sich hierzu insbesondere Lösungen für das Projekt- und Portfolio-Management (PPM). Der Betrieb nach dem Software-as-a-Service (SaaS)-Modell erlaubt den flexiblen, Budget-schonenden Einstieg.

Nie waren sie wertvoller! Im Antlitz wankelmütiger Wirtschaftslaunen hilft Software für ein umfassendes Projekt- und Portfolio-Management – kurz PPM –, die Investition auf die strategisch wichtigen Aufgaben zu konzentrieren. Mit ihrer Hilfe gewinnen Unternehmen den notwendigen Über- und Einblick, um in Zeiten der Ressourcenknappheit die richtigen Entscheidungen zu treffen. Und durch das Angebot, PPM-Software nach Bedarf – also auf Abruf – als Software-as-a-Service beziehen zu können, ist die Einstiegshürde niedrig. Unternehmen können so kostenintensive Investitionen in Technologien vor Ort und risikobehaftete Entwicklungs- oder Implementierungsaufwände vermeiden und sich auf die Nutzung, sprich das Management anstehender Projekte, konzentrieren. Ein "Pay as You Go"-Angebot ist insbesondere dann ideal, wenn es sich um einmalige Vorhaben handelt. Der US-Konzern Kellogg steuerte beispielsweise mit PPM als SaaS die Einführung einer umfangreichen Personal-Management-Lösung, um Zeit und Budget des mehrere Millionen Dollar-schweren Projektes im Griff zu behalten.

Wofür steht Projekt- und Portfolio-Management konkret?
Die grundsätzlichen Idee hinter PPM ist denkbar einfach: Bereits ein einziges schlecht durchgeführtes Projekt kann einem Unternehmen teuer zu stehen kommen. Ausufernde Kosten, schwindende Glaubwürdigkeit bei den Kunden und frustrierte Mitarbeiter belasten hier schnell die Wettbewerbsstärke. Selbst ein optimal durchlaufendes Projekt wird zum Investitionsgrab, wenn sich das Projektziel nicht im Einklang mit den Geschäftszielen befindet. Sind mehrere Vorhaben gleichzeitig zu steuern, gehen ohne geeignete Werkzeugunterstützung Durch- und Überblick schnell verloren. Mangelnde Transparenz kann bei konkurrierenden Forderungen nach Finanzmitteln, Mitarbeitern und Ressourcen schnell zu Fehlentscheidungen führen.

Dem Vorbild der Finanzwirtschaft folgend ebnen PPM-Lösungen den Weg, Investitionen an den Unternehmenszielen auszurichten. Der Portfolio-Ansatz dient dabei als Wegweiser, Finanzen, Ressourcen und Personal optimal einzusetzen. Im Unterschied zum traditionellen Projekt-Management, das die Verwaltung einzelner Projekte zur Aufgabe hat, stehen die vollständige Koordination der projektübergreifenden Prozesse und die optimale Zuteilung der knappen Ressourcen im Mittelpunkt. Dabei werden sowohl strategische als auch operative Anforderungen – wie Projektauswahl/-priorisierung und Umsetzung im Rahmen eines Multiprojekt-Managements – unterstützt. In ihrer vollständigen Ausprägung verbindet PPM-Software das Top-down-Vorgehen aus der Portfolio-Perspektive mit dem Bottom-up-Verfahren aus der Projektsicht. Ein optimales Portfolio-Management bindet die Informationen aus Anforderungs- und Projekt-Management, der Ressourcenplanung sowie des Zeit- und Kosten-Managements mit ein und macht die Zusammenhänge als auch den aktuellen Status der Projekte transparent.

Der Hinweis auf die Vollständigkeit ist mit Bedacht gewählt. In zweierlei Hinsicht! Zum einem muss der Funktionsumfang einer PPM-Software die Gepflogenheiten eines Unternehmens widerspiegeln. Besonderes Augenmerk gilt hierbei den Prozessen, die bei der Abwicklung von Projekten eingehalten werden sollen. Bewährte Verfahren müssen dabei einfach und schnell in das PPM-System einbindbar sein. Zum zweiten muss eine Integration in andere unverzichtbare Lösungen des Unternehmens, zum Beispiel in ein ERP-System, möglich sein. Gerade die Nutzung von Synergien hilft, die Amortisation der PPM-Lösung zu beschleunigen.

Bereits ein einziges schlecht durchgeführtes Projekt kann einem Unternehmen teuer zu stehen kommen. Als Steuerungs-Tool eignen sich hierzu insbesondere Lösungen für das Projekt- und Portfolio-Management, Bild: CA


Eine gute PPM-Lösung erlaubt aus Sicht der Unternehmensstrategie die Planung und Auswahl sowie die kontinuierliche Kontrolle und Bewertung des Projektportfolios. Dies ist gerade bei ungeplanten Arbeiten bzw. unvorgesehenen Ereignissen besonders kritisch und wichtig. Eine Produktidee und Projektanforderungen lässt sich so aus strategischer Sicht kategorisieren, im Rahmen einer Portfolio-Analyse ("Was wäre, wenn"-Szenario) bewerten und im Anschluss automatisch in die Projektplanung sowie Ressourcenzuordnung transformieren. In Echtzeit lässt sich auf Leistungsdaten per Drilldown bis in die Details des taktisch geprägten Tagesgeschäfts zugreifen.

Auf diese Weise geben die Lösungen Antworten auf wichtige Fragen wie "Befinden sich alle Ressourcen im Einklang mit den strategischen Initiativen?", "Reicht mein Budget aus?" oder "Erzielen wir den im Auswahlprozess angestrebten Nutzen?". Der Einbezug tagesaktueller Projektinformationen mit den Eckdaten neuer Vorhaben in die Portfolio- und Anforderungsanalyse beantwortet Fragen wie "Was ist zu tun, wenn sich der geplante Workload für ein Projekt X verdoppelt?" oder "Welche Folgen hat die zehnprozentige Budgetkürzung?" und "In welchem Projekt sind Verzögerungen akzeptabel und welches Projekt muss vorrangig behandelt werden?".

Die Verantwortlichen können mit diesem Wissen, die richtigen Entscheidungen für oder gegen neue Maßnahmen oder Projekte treffen. Anstatt sich in der Auswahl von subjektiven Kriterien wie dem Bauchgefühl leiten zu lassen, basiert die Entscheidung zu Budgetverschiebungen oder veränderter Personal- und Ressourcen-Zuordnung nun auf nachvollziehbaren Informationen. IT-Abteilungen werden befähigt, Vorgaben wie IT-Governance besser umzusetzen und die Entwicklung neuer Produkte zu optimieren. Dazu kommen eine verbesserte Effizienz in der Projektbearbeitung und eine schnellere Amortisierung. Zugleich kann dem Controlling jederzeit nachgewiesen werden, dass jeder Euro, jede Personalstunde und jede Infrastrukturkomponente dem Unternehmen zu Gute kommen. (CA: ra)

Autoren-Info:
Peter Säckel ist Senior Consultant bei CA Deutschland GmbH.

CA Technologies: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Grundlagen

  • Das lebende Unternehmen

    Der menschliche Körper ist ein bemerkenswerter Organismus. Ohne hier zu tief in Anatomie und Physiologie des Menschen einzutauchen, gibt es zahlreiche Bereiche, in denen sich der Mensch und die Datenverarbeitung eines Unternehmens stark ähneln. Zwar sind die Systeme des Menschen nicht digital sondern organisch, das Gesamtsystem Mensch funktioniert jedoch ganz ähnlich wie eine Organisation - eine große Anzahl an Informationssystemen laufen parallel und transportieren eine Fülle von Informationen zu jedem Organ. Wenig überraschend, ist der Mensch der IT in Sachen Datenverarbeitung nach vielen Millionen Jahren Evolution um einiges voraus. So funktioniert die Datenverarbeitung des Menschen in den meisten Fällen nicht nur in Echtzeit, sondern auch komplett automatisiert. Hier können Unternehmen ansetzen, um vom Menschen zu lernen und ihre IT in Zeiten der Digitalisierung leistungsfähiger zu machen.

  • Security und Leistung in der Cloud vereinen

    Moderne Anwendungen müssen skalieren und performant sein. Um diese Anforderungen zu erreichen, werden viele Implementierungen auf Public Cloud-Plattformen wie Amazon Web Services (AWS), Microsoft Azure und Google Cloud Platform (GCP) gehostet, was für Elastizität und Geschwindigkeit sorgt. Und die Cloud-Nutzung boomt, mittlerweile setzen zwei von drei Unternehmen in Deutschland Cloud Computing ein, so das Ergebnis einer repräsentativen Umfrage von Bitkom Research im Auftrag der KPMG. Vorteile wie hohe Flexibilität, Effizienzsteigerung der Betriebsabläufe und verbrauchsabhängige Abrechnung von Services liegen auf der Hand.

  • Es ist an der Zeit, die Cloud zu dezentralisieren

    Heute beheimatet die Erde 206 souveräne Staaten. Souveränität ist, wie uns das Lexikon erklärt, das "volle Recht und die Macht eines Regierungsorgans über sich selbst, ohne Einmischung von außen". In gewisser Weise hat die in den frühen 2000er Jahren eingeführte Public Cloud die Souveränität vieler Staaten in Frage gestellt: Sie zentralisierte Daten- und Cloud Computing-Services auf sehr effiziente Weise, um Kunden in jeder Ecke der Welt zu bedienen - eine Welt ohne Grenzen. Verbraucher und Unternehmen begrüßten das befreiende Konzept, das sich schnell weiterentwickelte.

  • Cloud-Sicherheit & Shared Responsibility-Modell

    Viele Unternehmen setzen auf eine Kombination verschiedener Backup-Lösungen, häufig über mehrere Standorte hinweg. Im Krisenfall macht es solch eine Strategie jedoch oft schwierig, Dateien zeitnah wiederherzustellen. Dagegen bieten Cloud-integrierte Lösungen einfaches Testen der Disaster-Recovery-Strategie und im Notfall die rasche Rückkehr zum Normalbetrieb. Daten sind für Unternehmen heute wertvolle Rohstoffe und müssen besser gesichert werden als je zuvor. Gerade in Zeiten weltweiter Ransomware-Attacken ist eine profunde Backup- und Disaster Recovery-Strategie daher unabdingbar geworden, um im Krisenfall sofort reagieren zu können und die Geschäftskontinuität zu sichern. Doch bei der Disaster Recovery geht es nicht nur um Ransomware-Bedrohungen und Advanced Threats, sondern ebenso um die Wiederherstellung nach Hardware-Ausfällen von IT-Komponenten wie Servern und Storage-Systemen, aufgrund menschlicher Fehler oder einer Naturkatastrophe.

  • Wächter des Cloud-Datenschatzes

    Im Zuge der Digitalisierung wächst die Datenmenge, die Unternehmen täglich verarbeiten, stetig an. Dies spiegelt sich auch in der gestiegenen Nutzung von Cloud Computing-Anwendungen in den vergangenen Jahren wider. Unternehmensdaten sind rund um die Uhr überall zugänglich, ermöglichen effiziente Arbeitsabläufe und - zumindest auf den ersten Blick - etwas weniger Verwaltungsaufwand für die IT-Abteilung. Dieser Effekt relativiert sich jedoch, wenn man die Cloud Computing-Nutzung unter dem Aspekt der Sicherheit betrachtet. Die damit einhergehenden Risiken und neuen Bedrohungen erfordern fortschrittliche Sicherheitstechnologien, um den Schutz von Unternehmensdaten gewährleisten zu können.

  • Cloud-Sicherheit: Shared Responsibility-Modell

    Viele Unternehmen setzen auf eine Kombination verschiedener Backup-Lösungen, häufig über mehrere Standorte hinweg. Im Krisenfall macht es solch eine Strategie jedoch oft schwierig, Dateien zeitnah wiederherzustellen. Dagegen bieten Cloud-integrierte Lösungen einfaches Testen der Disaster-Recovery-Strategie und im Notfall die rasche Rückkehr zum Normalbetrieb. Daten sind für Unternehmen heute wertvolle Rohstoffe und müssen besser gesichert werden als je zuvor. Gerade in Zeiten weltweiter Ransomware-Attacken ist eine profunde Backup- und Disaster Recovery-Strategie daher unabdingbar geworden, um im Krisenfall sofort reagieren zu können und die Geschäftskontinuität zu sichern.

  • DevOps: Eine Gefahr oder die Zukunft für ITSM?

    Der digitale Wandel beeinflusst die Unternehmenslandschaft stark. Auch im IT-Service-Management stehen Entscheider zahlreichen neuen Herausforderungen gegenüber. Die Verzahnung von Entwicklung und Betrieb, auch Development and Operations, kurz DevOps, spielt eine immer größere Rolle. Häufig stellen sich die Verantwortlichen jedoch eine Frage: Ist DevOps eine Gefahr oder die Zukunft des IT-Service-Managements (ITSM)? Zu den Ursachen für etwaige Bedenken zählt unter anderem die Infragestellung der Stabilität des IT-Betriebes. Angebote aus der Cloud werden mit einem Angriff auf die eigene IT gleichgesetzt und gestandene ITIL-Change-Manager können sich eine weitere Verkürzung und Vereinfachung der Prozesse nicht mehr vorstellen. Dabei lässt sich bei Betrachtung des Bereichs "Entwicklung und Betrieb von Applikationen" feststellen, dass es zahlreiche Gründe gibt, sich mit den Inhalten von DevOps zu befassen. Veränderungen im IT-Service-Management stellen dabei stets eine Notwendigkeit dar.

  • Das WAN weicht in die Wolke

    Unternehmen als abgeschlossene Einheiten sind passé. Neue Arbeitskonzepte wie mobiles Arbeiten oder BYOD lassen Mauern bröckeln - gerade auch im Hinblick auf Unternehmensnetzwerke. Unternehmen mit Niederlassungen oder Filialen im Handel müssen neben stationärer IT wie Kassensystemen auch mobile oder temporäre Geräte ins Netzwerk einbinden, zum Beispiel Digital-Signage-Terminals. Und Kunden setzen meist ein offenes WLAN voraus. Die digitale Transformation stellt neue Herausforderungen an das vormals Hardware-orientierte Wide-Area-Network (WAN)-Management. Software- und Cloud-definierte Ansätze erleichtern die Administration bei gleichzeitig hohen Sicherheitsstandards.

  • DevOps gegen IT-Operations

    Ein IT-Infrastrukturteam hat es heutzutage nicht leicht. Einerseits muss es den Betrieb des herkömmlichen Rechenzentrums aufrechterhalten, gleichzeitig soll es die strategische Digitalisierung des Unternehmens vorantreiben. Als wenn das nicht schon Herausforderung genug wäre, sollen die IT-ler zusätzlich komplett neue Technologien bereitstellen, um die neuen DevOps-Kollegen bestmöglich bei Neuerungen und schnelleren Release-Zyklen zu unterstützen. Anforderungen von DevOps an eine flexible und automatisierte Unternehmensinfrastruktur sind nicht immer einfach zu erfüllen und so wird der Trend zu DevOps für Infrastrukturteams eine zusätzliche Belastung. Prallen doch die unterschiedlichen Welten der IT-Operations und des DevOps-Teams aufeinander.

  • Automatisierte Speicherrichtlinien & Daten-GPS

    Die Globalisierung hat die Welt schrumpfen lassen. Nicht nur Reisende ziehen heute rund um den Globus, auch Daten sind dank Cloud Computing äußerst mobil und werden von Unternehmen aus den unterschiedlichsten Gründen zwischen Rechenzentren verschoben. Wir Menschen fühlen uns im eigenen Zuhause am sichersten. Auch für Unternehmensdaten gilt, dass das Risiko sie bei der Migration über Ländergrenzen hinweg zu verlieren, natürlich steigt. Als Mensch ist es heute mittels GPS sehr einfach, einen Standort zu bestimmen. Damit auch Unternehmen immer genau wissen, wo ihre Daten physisch gespeichert sind, bieten sich dank automatisierten Speicherrichtlinien und einem Daten-GPS neue Methoden, den exakten Standort von Daten festzulegen.