- Anzeige -


Sie sind hier: Startseite » Markt » Hintergrund

Standardsoftware oder individuelle Optionen


Make IT or buy IT? Wie sich Unternehmen für die richtige Software entscheiden
Wer sein Unternehmen zukunftsorientiert ausrichtet, sollte sich von der Vorstellung verabschieden, das spätere Wunschprofil direkt als Status quo vorzugeben und gegen diese Vorgaben zu evaluieren

- Anzeigen -





Egal ob eCommerce, Cloud Computing oder mobiles Internet – wer auf neue Kommunikationstechnologien setzt, stellt zusätzliche Anforderungen an die Sicherheit, Interoperabilität, Flexibilität, Skalierbarkeit oder Wartbarkeit bereits implementierter Softwarelösungen. Konfrontiert mit den digitalen Herausforderungen der Zukunft, stehen Unternehmen somit vor der Qual der Wahl: Erfüllt Standardsoftware die eigenen Ansprüche oder bieten individuelle Optionen einen größeren Mehrwert?

"Je nach Reifegrad der eigenen Kundenorganisation benötigen Betriebe simple beziehungsweise komplexere Lösungen", erklärt Andreas Köninger, Vorstand der SinkaCom AG, eines Digitalisierungsspezialisten. "Besonders die Kombination verschiedener Programme hilft dabei, die Unternehmenswirklichkeit abzubilden und den technischen Transformationsprozess voranzutreiben."

Während standardisierten Systemen strukturelle, architektonische und konzeptionelle Grenzen auferlegt sind, verhält es sich mit Individualsoftware anders. Anpassungen sowie Erweiterungen lassen sich in jedem Projekt einzeln adressieren und entsprechend den Anforderungen des Betriebs umsetzen.

Innovative Anwendung
Wer sein Unternehmen zukunftsorientiert ausrichtet, sollte sich von der Vorstellung verabschieden, das spätere Wunschprofil direkt als Status quo vorzugeben und gegen diese Vorgaben zu evaluieren. "Anstatt die Produktivität zu fördern, binden jene traditionellen Entscheidungsprozesse zeitliche und fachliche Ressourcen", weiß Andreas Köninger. "Meist werden in langwierigen Evaluierungsprozessen aktuelle Marktveränderungen, Prozesse und Situationen aus dem Auge verloren, die anschließend nur noch eine teilweise Gültigkeit besitzen und im Nachhinein eine Überarbeitung benötigen."

Dass es aber auch effektiver geht, beweisen Digitalisierungsspezialisten wie die SinkaCom AG. Um den Ist-Zustand zu optimieren, setzen solche Creative Offices auf die Symbiose von Standard- und Individualsoftware. Ausgangspunkt der digitalen Transformation ist das Untersuchen und Analysieren der Customer Journey: Welche Arbeitsschritte binden die meisten Ressourcen? Warum sind Kunden möglicherweise unzufrieden? Und wo verlieren Betriebe unnötig Zeit und Geld? Fällt hierbei etwa auf, dass das Team vom Onlineshop Aufgaben verantwortet, die eigentlich mit der Software des Kundenservices erfasst werden, gilt es diese Unzulänglichkeiten zu optimieren.

"Wichtig im Entwicklungsprozess ist, dass die digitale Infrastruktur eine zum Geschäftsmodell passende Genetik erhält", stellt Andreas Köninger fest. "Für alle nicht relevanten Kernprozesse werden standardisierte Lösungen eingesetzt."

Damit reduzieren die Experten nicht nur Betreuungsaufwand und einhergehende Kosten, sondern erzeugen die nötige Stabilität sowie geeignete Schnittstellen für das weitere Vorgehen. Spezielle Werkzeuge, Programme und Co. kommen hingegen nur dort zum Einsatz, wo sie die Unternehmensperformance steigern, die Entwicklung fördern und Wachstum generieren. Während je nach Branche und Spezialisierung bereits gewöhnliche Onlineshop- beziehungsweise Warenwirtschaftssysteme ihren Zweck erfüllen, können beispielsweise zugleich individuell konzipierte Lösungen wie High-End-Kundenservicesoftware mit integrierter Marketingsuite benötigt werden, um mit einer Tracking-Analysefunktion einen Mehrwert für den Betrieb zu erzielen.

Softwarekonzept mit Zukunft
Besonders Unternehmen, die auf anspruchsvolle Anwendungen angewiesen sind, profitieren von diesen kombinierten Infrastrukturen. Als sogenannte Meshed Services verbessern sie die Kommunikationswege sowie die Interaktion der einzelnen Komponenten. Das heißt: Wo wenig Relevanz gegeben ist, kommen standardisierte Systeme zum Einsatz, während Unternehmen die Prozesse entsprechend anpassen und zugleich Kosten, Wartung, Pflege sowie Arbeitskapazität minimieren. Dementsprechend liegt der Fokus nun auf den wertschöpfenden, leistungsbildenden oder kundenkritischen Merkmalen. Hierfür werden spezialisierte Lösungen eingebaut beziehungsweise aufgebaut, um als Innovationstreiber zu fungieren.

"Ein großer Vorteil ist ein im Hintergrund agierender Datenspeicher mit standardisierten Schnittstellen", erläutert Andreas Köninger. "Hier laufen alle Daten zusammen und erlauben das einfache Austauschen von nicht mehr benötigten Programmen. Nicht nur lassen sich so Migrationsaufwände reduzieren, sondern auch der sogenannte Lock-in-Effekt, eine Abhängigkeit gegenüber den Softwareherstellern, in der eigenen IT-Struktur vermeiden. Unternehmen sind somit in der Lage, schneller, effizienter und effektiver in der Entwicklung eines digitalen Geschäftsmodells zu werden, und profitieren dabei von der ganzheitlichen Betrachtung – auch Resilienz-by-design genannt."

Betriebe übernehmen somit nur die Verantwortlichkeiten, die einen wirklichen Mehrwert bieten, und kaufen alles andere dazu. Dementsprechend gilt das "Make" für die wertschöpfenden, leistungsbildenden und kundenkritischen Merkmale, während "Buy" für alles andere infrage kommt. Für die Zukunft lassen sich so Zuständigkeiten reduzieren, operative Kräfte auf die Themen fokussieren, die den Unterschied ausmachen, und Ressourcen für das Wesentliche schaffen – eine Mitarbeit aller Beteiligten vorausgesetzt. (SinkaCom: ra)

eingetragen: 26.03.21
Newsletterlauf: 21.06.21

SinkaCom: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Hintergrund

  • Automatisierung von Rechenzentren

    Laut einer aktuellen Prognose des Research- und Beratungsunternehmens Gartner wird die Hälfte der Cloud-Rechenzentren bis 2025 hochentwickelte Roboter einsetzen, welche mit Künstlicher Intelligenz (KI) und Machine Learning (ML)-Fähigkeiten ausgestattet sein werden. Dies soll helfen die Betriebseffizienz um 30 Prozent zu steigern. "Es gibt eine immer größer werdende Kluft zwischen dem Fachpersonal und der zunehmenden Nachfrage für Server und Speichervolumen in den Rechenzentren", erklärt Sid Nag, Research Vice President bei Gartner. In diesen vier Bereichen sollen Roboter innerhalb der nächsten fünf Jahre bei der Automatisierung von Rechenzentren helfen: Server Upgrades und Wartung, Monitoring, Sicherheit und Einsatz von KI/ML.

  • Ohne Zwischenstopp in die Cloud

    Myrko Rudolph, Geschäftsführer der exapture GmbH und Experte für dezentrale Digitalisierung, informiert über die neuen Entwicklungen im Cloud Computing und prophezeit der Kombination mit Scanprozessen eine große Zukunft. "Unser Umgang mit Papierdokumenten hat sich bereits in den vergangenen Jahrzehnten drastisch verändert. Digitale Arbeitsweisen nahmen im Verlauf einen immer größeren Stellenwert im alltäglichen Leben ein, sodass rein analoge Prozesse heutzutage kaum noch stattfinden. Durch intelligente Scansoftware ließen sich haptische und virtuelle Datensätze weitestgehend innerhalb aneinander angepasster Abläufe vereinen. Während der Pandemie gab es nun einen weiteren Schub für diese Entwicklung, denn längst nehmen wir sogar den Arbeitsplatz selbst nicht mehr als physischen Ort wahr, den wir morgens betreten und abends wieder verlassen - in dessen vier Wänden wir Blätter abheften und bei Bedarf wieder aus den Aktenschränken suchen. ‚Immer und überall' gilt als Devise der Stunde und macht einen dezentralen Zugriff auf stetig relevante Daten unabdingbar. Das heißt, Informationen müssen in die Cloud - und das möglichst schnell. Warum also noch vermeidbare Umwege nehmen?

  • Sichere Verwahrung in der Private Cloud

    Keine Branche in der modernen Wirtschaft steht unter einem derart hohen Innovationsdruck wie die Informationstechnik. Sei es im Kundenservice, in externen wie internen Kommunikationsabläufen, im Management der Produktionsabläufe oder in der Supply Chain - in jeglichen Bereichen eines Betriebes herrscht ein großer Bedarf an digitalen Software-Lösungen, die Unternehmensprozesse automatisieren, überwachen und organisieren. Folglich resultiert daraus eine Fülle von zu verarbeitenden Datenmengen, die hohe Kosten sowie einen großen personellen und organisatorischen Aufwand verursachen."Da sich die Digitalisierung von Unternehmensprozessen in Zukunft einer vermehrten Ausweitung gegenübersieht, sollte die Frage erlaubt sein, ob die interne Datenverwaltung in einem eigenen Rechenzentrum überhaupt noch sinnvoll ist", stellt Jerome Evans, Gründer und Geschäftsführer der diva-e Datacenters GmbH, klar. Als Lösungsansatz und Versprechen für die Zukunft stellen sich dabei externe Rechenzentren und private Cloud Umgebungen heraus, die Unternehmen einerseits in jeglichen Fragen der Speicherung und Bereitstellung von Daten unterstützen, sowie Kosten senken und andererseits die vorhandenen sensiblen Daten sicher an geografisch getrennten Server-Standorten verwahren.

  • "Gaia-X" soll sichere Infrastruktur schaffen

    Wie der "Cloud-Monitor 2021" von Bitkom und KPMG zeigt, hat sich - nicht zuletzt durch die Corona-Krise - die Cloud in Deutschland durchgesetzt. Von den 550 befragten Unternehmen ab 20 Mitarbeitenden setzen 82 Prozent bereits auf Cloud Computing-Infrastrukturen. Der Großteil dieser Unternehmen ist in ihrer Cloud-Strategie allerdings abhängig von amerikanischen sowie chinesischen Cloud-Anbietern. Eine Alternative böte die europäischen Cloud Gaia-X, mit der die EU europäische Werte wahren und neue Maßstäbe bezüglich des Datenschutzes setzen wollte. Das ambitionierte Digitalprojekt deutscher und französischer Unternehmen, das im Herbst 2019 startete und an der inzwischen über 300 Organisationen beteiligt sind, darunter Bosch, Siemens, SAP, der Telekom, dem Bundesverband der Deutschen Industrie, dem Digitalverband Bitkom und der IG Metall, sieht sich jedoch Kritik ausgesetzt - auch seitens der IT-Sicherheitsexperten der PSW Group. Insbesondere die Tatsache, dass mit Microsoft, Amazon und Google US-Giganten an Gaia-X beteiligt sind, sieht Geschäftsführerin Patrycja Schrenk kritisch und gibt zu bedenken: "So könnten die europäischen Werte, die mit Gaia-X eigentlich hochgehalten werden sollten, tief fallen. Wenn Hyperscaler dieser Art beteiligt sind, können kaum europäische Standards geschaffen und etabliert werden."

  • PKI in einem as-a-Service-Angebot nutzen

    Immer mehr Unternehmen kehren kostenintensiven On-Premises-PKI-Systemen den Rücken und setzen stattdessen auf leicht skalierbare und flexible Cloud-Lösungen. HID Global, weltweit führender Anbieter von vertrauenswürdigen Identitätslösungen, erklärt die Vorteile Cloud-basierter PKI-Lösungen. Eine Public Key Infrastructure (PKI) ermöglicht die verschlüsselte Übertragung von Informationen auf der Basis von öffentlichen und privaten Schlüsseln. Mit einer solchen Infrastruktur kann jedes Unternehmen Zugriffe überwachen oder Hackerangriffe unterbinden. Für die PKI-Implementierung gibt es prinzipiell zwei Möglichkeiten.

  • Google-Infrastruktur als Täterumfeld

    Fast 60 Millionen Angriffs-Mails via Microsoft 365 und 90 Millionen via Google - das ist die erschreckende Bilanz, die der US-Cybersecurity-Spezialist Proofpoint jetzt nach einer Analyse der Cyberbedrohungen für 2020 veröffentlicht hat. Cyberkriminelle nutzen ganz offensichtlich die umfangreiche Funktionalität und nahezu grenzenlose Skalierbarkeit von Diensten wie Microsoft 365, Azure, OneDrive, SharePoint, G-Suite und Firebase Storage um digitale Angriffe auszuführen. Mehr als ein Viertel davon (27 Prozent) liefen über den Google-Mail-Service Gmail. Da es sich hier ausschließlich um eine Analyse von Angriffen handelt, die auf Kunden von Proofpoint abzielten, ist der tatsächliche Wert kaum zu ermitteln. Der Trend ist jedoch ungebrochen, im ersten Quartal 2021 wurden bereits mittels Microsoft 365 sieben Millionen gefährliche Nachrichten verbreitet und im Falle weiterer 45 Millionen nutzten die Täter die Google-Infrastruktur. Das Volumen gefährlicher Nachrichten, die mittels dieser in der Wahrnehmung vieler doch sehr vertrauenswürdigen Cloud-Dienste versendet wurden, übertraf dabei sogar das aller Botnets im Jahr 2020. Da die Angreifer hierzu eben auch Domains wie "outlook.com" und "sharepoint.com" nutzen, die bisher häufig als seriöse Quelle galten, wird die Erkennung von Attacken immer schwieriger.

  • Der Mainframe im neuen Normal

    Auch im Jahr 2021 stehen Mainframes im Zentrum des Geschehens. Trotz technologischer Fortschritte bleiben sie geschäftskritisch, denn sie überzeugen mit Leistungsfähigkeit und Zuverlässigkeit. Im Rahmen der fortschreitenden Transformation, die auch vor dem Mainframe nicht Halt macht, müssen Unternehmen nun dessen Sicherheit in den Fokus rücken. Que Mangus, Product Marketing Manager for Application Modernization and Connectivity bei Micro Focus, gibt tiefere Einblicke in die Bedeutung des Mainframes. Mainframes bleiben das Herzstück von Enterprise Computing. Laut Zahlen von IBM laufen 55 Prozent aller Enterprise-Application-Transaktionen auf dem Mainframe. Zusätzlich befinden sich, laut IBM, 80 Prozent der weltweiten Unternehmensdaten auf Mainframe-Computing-Plattformen oder stammen von diesen. Oftmals geht es dabei um sensible Informationen, wie etwa personenbezogene Daten. Diese gilt es, gemäß der im Mai 2018 eingeführten Datenschutzgrundverordnung (DSGVO), zu schützen.

  • MSPs müssen hybride Cloud-Lösungen bereitstellen

    Eines der heißesten Themen im Netzwerkbereich ist das Secure Access Service Edge (SASE)-Modell, ein von Gartner konzipiertes architektonisches Framework, das eine Roadmap zur Transformation von Legacy-WAN hin zu einem Cloud-verwalteten Edge beschreibt: SASE kombiniert WAN-Edge-Funktionen mit aus der Cloud bereitgestellten Sicherheitsfunktionen. Gute MSP-Servicebereitstellungsmodelle sind bereits auf die maßgeschneiderte Natur von integriertem SASE abgestimmt. MSPs können so Managed Services nach Bedarf definieren, verfeinern und bereitstellen, was Kosteneffizienz und Skalierbarkeit ermöglicht. Viele werden jedoch ihre siloartigen Organisationsstrukturen umgestalten müssen.

  • Cloud ist stark auf Kernprozesse fokussiert

    Cloud-Lösungen sind nichts Neues, bei SAP werden diese immerhin seitmehreren Jahren angeboten. Doch so wirklich wollten sich deutsche Unternehmen bisher nicht von ihren "On-Premise" Installationen verabschieden. Die vorherrschende Meinung: Cloud Computing-Lösungen können einfach nicht leisten was eine firmeneigene Software schafft. Während dies zu Beginn in Teilbereichen auch stimmte, offenbart die Cloud zunehmend ihre Stärken. Vor allem der "immer und überall" Zugang für Mitarbeiter, Partner und Dienstleister sowie die schnelle und effiziente Implementierung hat im vergangenen Pandemie-Jahr zunehmend an Bedeutung gewonnen. Aber auch die stetige Weiterentwicklung in Richtung künstliche Intelligenz und Automatisierung sprechen immer mehr für die Cloud. Für Unternehmen gibt es derzeit reichlich gute Gründe um im Rahmen ihrer Digitalisierungsstrategie über einen Umstieg von internen Softwarelösungen über Cloud-Lösungen nachzudenken. Für Geschäftsführung und Aktionäre steht dabei meist die Kostenminimierung im Vordergrund. Denn durch Cloud-Hosting lässt sich die Softwarestruktur effizienter betreiben und Veränderungen des Geschäftsmodells können direkt skaliert werden. Während diese Flexibilität die letzten Jahre keinen großen Stellenwert hatte, ist sie aktuell zu einem Haupttreiber für Cloud-Lösungen geworden.

  • Open Banking - Bankgeschäfte überall

    Moderne Cloud-Technologien bieten ein enormes Potential für Finanzunternehmen. Das Beraterhaus Deloitte geht davon aus, dass im Jahr 2030 Cloud Banking eine zentrale Rolle in der Finanzbranche einnimmt. Der Umstieg auf eine Cloud-Lösung bringt jedoch auch Herausforderungen mit sich. Verantwortliche müssen dabei zahlreiche Datenquellen mit unterschiedlichen Formaten und Protokollen kombinieren. Zusätzlich setzen sich die Datenquellen aus verschiedenen Cloud-Diensten von unterschiedlichen Anbietern, bestehenden On-Premises-Quellen und Software-as-a-Service (SaaS)-Anwendungen zusammen. Mit Datenvirtualisierung können Daten reibungslos und ohne Downtime in die Cloud migriert werden. So wird der tägliche Betrieb nicht beeinträchtigt und das Risiko für das Unternehmen maßgeblich minimiert. Die Technologie bietet einen einheitlichen Layer, der alle Daten integriert und zugänglich macht. Da die Datenquellen von den Datenkonsumenten und Analyse-Tools entkoppelt sind, merken die Daten-Nutzer nichts davon, wenn die IT-Abteilung die Daten "im Hintergrund" in die Cloud migriert.