- Anzeige -


Sie sind hier: Startseite » Fachartikel » Grundlagen

Das lebende Unternehmen


Das System Mensch verarbeitet Daten automatisiert und in Echtzeit
Unternehmen können davon lernen und ihren veralteten Datenverarbeitungsprozess fit für Digitalisierung machen

- Anzeigen -





Von Mark Budzinski, CEO WhereScape

Der menschliche Körper ist ein bemerkenswerter Organismus. Ohne hier zu tief in Anatomie und Physiologie des Menschen einzutauchen, gibt es zahlreiche Bereiche, in denen sich der Mensch und die Datenverarbeitung eines Unternehmens stark ähneln. Zwar sind die Systeme des Menschen nicht digital sondern organisch, das Gesamtsystem Mensch funktioniert jedoch ganz ähnlich wie eine Organisation - eine große Anzahl an Informationssystemen laufen parallel und transportieren eine Fülle von Informationen zu jedem Organ.

Wenig überraschend, ist der Mensch der IT in Sachen Datenverarbeitung nach vielen Millionen Jahren Evolution um einiges voraus. So funktioniert die Datenverarbeitung des Menschen in den meisten Fällen nicht nur in Echtzeit, sondern auch komplett automatisiert. Hier können Unternehmen ansetzen, um vom Menschen zu lernen und ihre IT in Zeiten der Digitalisierung leistungsfähiger zu machen.

Für CIOs ist die digitale Transformation eine der wichtigsten Prioritäten, um ihre Unternehmen bestmöglich durch eine umfassende datengetriebene Strategie zu unterstützen. Damit dies gelingen kann, müssen Daten und Informationen optimal durch das Unternehmen fließen. Am besten in Echtzeit, wie bei einem Menschen, und komplett wartungsfrei und automatisch. Das ist natürlich einfacher gesagt als getan und Unternehmen haben in der Realität große Schwierigkeiten damit, dem Organismus Mensch in dieser Hinsicht nachzueifern.

Die Datenlage eines Unternehmens ändert sich kontinuierlich
Anders als der Mensch, und anders als Unternehmen vor der Digitalen Revolution, schläft ein modernes Unternehmen nie. Für ein globales Unternehmen ist ohnehin immer irgendwo Tag und selbst wer nicht global präsent ist, bekommt rund um die Uhr Daten von internen oder externen Anwendungen, IoT oder Social Media, ins Rechenzentrum. Diese neu angekommenen Daten sollten möglichst sofort und in Echtzeit bearbeitet werden, damit sie direkt genutzt werden können.

Diese neuen Datenquellen, die rund um die Uhr sprudeln, überfordern jedoch ältere Systeme der Datenverarbeitung, wie etwa die traditionelle Datenanalyse. Diese wurde bisher nur aus regelmäßig oder zyklisch erzeugten Datenquellen erstellt, was auch im Allgemeinen ausreichte, um sehr spezifische, nicht zeitkritische Daten effizient zu verarbeiten, wie etwa die Verarbeitung von Abrechnungen oder das Reporting der monatlichen Einnahmen.

Für Systeme, die hingegen rund um die Uhr laufen und kontinuierlich Daten erzeugen, ist diese traditionelle Datenanalyse natürlich vollkommen ungeeignet. Eine Analyse des Aktienmarktes beispielsweise wäre im Moment der Analyse bereits veraltet. Der Wert solcher Daten, wie IoT-Sensoren oder Finanzdaten, liegt im Wesentlichen in den identifizierten Trends und Anomalien, die möglichst in Echtzeit identifiziert werden müssen, um wertvoll zu sein.

Automatisierung hilft der IT dem Mensch nachzueifern
Genauso wie beim Menschen, laufen in einem Unternehmen eine Vielzahl von Systemen parallel – einige in Echtzeit, einige in Intervallen. Es ist seit jeher eines der Ziele jeder IT, Informationen aus einer Vielzahl von Datenquellen in einer einzigen Infrastruktur automatisch zusammenzuführen, sie dort aufzubereiten und den Anwendern zur Verfügung zu stellen. Diese Aufgabe war schon immer eine große Herausforderung, die durch die steigende Digitalisierung stetig komplexer geworden ist. Die Anzahl der Systeme und Anwendungen steigt seit langem ständig und mit ihnen wächst das zu verarbeitende und zu speichernde Datenvolumen. Damit wird auch die manuelle Verarbeitung und Bereitstellung dieser Daten immer komplexer und zeitaufwändiger und bringt die IT unter Zugzwang diese Prozesse zu vereinfachen und zu automatisiere, um ihrer eigentlichen Aufgabe gerecht zu werden.

Um Daten wie der Mensch automatisch und in Echtzeit verarbeiten zu können, kommt der Unternehmens-IT die Automatisierung zu Hilfe, der eine Schlüsselrolle bei der fortschreitenden Digitalisierung zufällt. Erst durch umfangreiche Automatisierung kann der Zeitaufwand und das Verständnis für die nötigen Prozesse deutlich verringert werden.

Die Vorteile eines automatisierten Unternehmens
Gelingt es der IT die Vielzahl paralleler Systeme und die damit steigende Datenmenge automatisiert und in Echtzeit zu verarbeiten, kommt sie dem Vorbild Mensch nahe. Die Vorteile eines autonom Daten atmenden und Informationen pumpenden Unternehmens zeigen sich fortan in jeder Geschäftszelle des Unternehmens: In kundennahen Bereichen kann in Echtzeit auf Trends und Situationen reagiert werden, zum Beispiel auf aktuelle Trends von Aktienwerten oder auf Marktinformationen.

Trotz viel Rechenleistung ist die vollkommen künstliche Intelligenz noch Science Fiction. Maschinelles Lernen hingegen wird bereits in vielen Bereichen eingesetzt, um die Berge an Daten effizient zu bearbeiten. Mathematische Algorithmen können hier eingesetzt werden, um aus den Datenströmen zu lernen und Erkenntnisse zu generieren.

Für jeden CEO ist vollkommen klar: wenn sein Unternehmen Daten schnell und in Echtzeit bearbeiten und diese dank maschinellem Lernen sogar gleich direkt interpretieren kann, wäre das ein riesiger Vorteil gegenüber allen Wettbewerbern. Man ist immer einen Schritt voraus, kann jederzeit auf aktuellen Daten basierende Entscheidungen treffen und kann den Kunden beweisen, dass man am sprichwörtlichen Puls der Zeit ist. Diese Vorteile und Chancen aus der Analyse aktueller Daten in Echtzeit sind zu wichtig, um sie zu ignorieren.

Unternehmen brauchen Lösungen zur automatisierten Datenverarbeitung
Praktisch jedes Unternehmen ist derzeit im fortlaufenden Prozess der Digitalisierung. Ein wichtiger Teil davon, den es derzeit zu meistern gilt, ist die Herausforderung Daten aus einer Vielzahl hybrider Datenquellen verarbeiten zu können. Die Automatisierung hat hier bereits Erfolge bei der Stapelverarbeitung von Batch-basierten Daten erzielt. Jetzt gilt es für Unternehmen – und ihre IT – den gleichen Ansatz bei Datenströmen in Echtzeit anzuwenden. Damit dies gelingt, müssen sich Unternehmen genau überlegen, wie sie ihr internes Know-how am besten mit neuen Lösungen zur automatisierten Datenverarbeitung kombinieren können.

Der menschliche Körper ist ein in vieler Hinsicht weit entwickeltes System, das einer modernen IT ähnelt und Daten aus einer Vielzahl an Quellen automatisch und in Echtzeit verarbeitet. Um im Rahmen der Digitalisierung nicht ins Hintertreffen zu geraten, müssen Unternehmen dem Menschen nacheifern und Systeme zur automatisierten Datenverarbeitung kontinuierlicher Datenströme implementieren. (WhereScape: ra)

eingetragen: 29.06.18
Newsletterlauf: 19.07.18

WhereScape: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Grundlagen

  • Es ist an der Zeit, die Cloud zu dezentralisieren

    Heute beheimatet die Erde 206 souveräne Staaten. Souveränität ist, wie uns das Lexikon erklärt, das "volle Recht und die Macht eines Regierungsorgans über sich selbst, ohne Einmischung von außen". In gewisser Weise hat die in den frühen 2000er Jahren eingeführte Public Cloud die Souveränität vieler Staaten in Frage gestellt: Sie zentralisierte Daten- und Cloud Computing-Services auf sehr effiziente Weise, um Kunden in jeder Ecke der Welt zu bedienen - eine Welt ohne Grenzen. Verbraucher und Unternehmen begrüßten das befreiende Konzept, das sich schnell weiterentwickelte.

  • Cloud-Sicherheit & Shared Responsibility-Modell

    Viele Unternehmen setzen auf eine Kombination verschiedener Backup-Lösungen, häufig über mehrere Standorte hinweg. Im Krisenfall macht es solch eine Strategie jedoch oft schwierig, Dateien zeitnah wiederherzustellen. Dagegen bieten Cloud-integrierte Lösungen einfaches Testen der Disaster-Recovery-Strategie und im Notfall die rasche Rückkehr zum Normalbetrieb. Daten sind für Unternehmen heute wertvolle Rohstoffe und müssen besser gesichert werden als je zuvor. Gerade in Zeiten weltweiter Ransomware-Attacken ist eine profunde Backup- und Disaster Recovery-Strategie daher unabdingbar geworden, um im Krisenfall sofort reagieren zu können und die Geschäftskontinuität zu sichern. Doch bei der Disaster Recovery geht es nicht nur um Ransomware-Bedrohungen und Advanced Threats, sondern ebenso um die Wiederherstellung nach Hardware-Ausfällen von IT-Komponenten wie Servern und Storage-Systemen, aufgrund menschlicher Fehler oder einer Naturkatastrophe.

  • Wächter des Cloud-Datenschatzes

    Im Zuge der Digitalisierung wächst die Datenmenge, die Unternehmen täglich verarbeiten, stetig an. Dies spiegelt sich auch in der gestiegenen Nutzung von Cloud Computing-Anwendungen in den vergangenen Jahren wider. Unternehmensdaten sind rund um die Uhr überall zugänglich, ermöglichen effiziente Arbeitsabläufe und - zumindest auf den ersten Blick - etwas weniger Verwaltungsaufwand für die IT-Abteilung. Dieser Effekt relativiert sich jedoch, wenn man die Cloud Computing-Nutzung unter dem Aspekt der Sicherheit betrachtet. Die damit einhergehenden Risiken und neuen Bedrohungen erfordern fortschrittliche Sicherheitstechnologien, um den Schutz von Unternehmensdaten gewährleisten zu können.

  • Cloud-Sicherheit: Shared Responsibility-Modell

    Viele Unternehmen setzen auf eine Kombination verschiedener Backup-Lösungen, häufig über mehrere Standorte hinweg. Im Krisenfall macht es solch eine Strategie jedoch oft schwierig, Dateien zeitnah wiederherzustellen. Dagegen bieten Cloud-integrierte Lösungen einfaches Testen der Disaster-Recovery-Strategie und im Notfall die rasche Rückkehr zum Normalbetrieb. Daten sind für Unternehmen heute wertvolle Rohstoffe und müssen besser gesichert werden als je zuvor. Gerade in Zeiten weltweiter Ransomware-Attacken ist eine profunde Backup- und Disaster Recovery-Strategie daher unabdingbar geworden, um im Krisenfall sofort reagieren zu können und die Geschäftskontinuität zu sichern.

  • DevOps: Eine Gefahr oder die Zukunft für ITSM?

    Der digitale Wandel beeinflusst die Unternehmenslandschaft stark. Auch im IT-Service-Management stehen Entscheider zahlreichen neuen Herausforderungen gegenüber. Die Verzahnung von Entwicklung und Betrieb, auch Development and Operations, kurz DevOps, spielt eine immer größere Rolle. Häufig stellen sich die Verantwortlichen jedoch eine Frage: Ist DevOps eine Gefahr oder die Zukunft des IT-Service-Managements (ITSM)? Zu den Ursachen für etwaige Bedenken zählt unter anderem die Infragestellung der Stabilität des IT-Betriebes. Angebote aus der Cloud werden mit einem Angriff auf die eigene IT gleichgesetzt und gestandene ITIL-Change-Manager können sich eine weitere Verkürzung und Vereinfachung der Prozesse nicht mehr vorstellen. Dabei lässt sich bei Betrachtung des Bereichs "Entwicklung und Betrieb von Applikationen" feststellen, dass es zahlreiche Gründe gibt, sich mit den Inhalten von DevOps zu befassen. Veränderungen im IT-Service-Management stellen dabei stets eine Notwendigkeit dar.

  • Das WAN weicht in die Wolke

    Unternehmen als abgeschlossene Einheiten sind passé. Neue Arbeitskonzepte wie mobiles Arbeiten oder BYOD lassen Mauern bröckeln - gerade auch im Hinblick auf Unternehmensnetzwerke. Unternehmen mit Niederlassungen oder Filialen im Handel müssen neben stationärer IT wie Kassensystemen auch mobile oder temporäre Geräte ins Netzwerk einbinden, zum Beispiel Digital-Signage-Terminals. Und Kunden setzen meist ein offenes WLAN voraus. Die digitale Transformation stellt neue Herausforderungen an das vormals Hardware-orientierte Wide-Area-Network (WAN)-Management. Software- und Cloud-definierte Ansätze erleichtern die Administration bei gleichzeitig hohen Sicherheitsstandards.

  • DevOps gegen IT-Operations

    Ein IT-Infrastrukturteam hat es heutzutage nicht leicht. Einerseits muss es den Betrieb des herkömmlichen Rechenzentrums aufrechterhalten, gleichzeitig soll es die strategische Digitalisierung des Unternehmens vorantreiben. Als wenn das nicht schon Herausforderung genug wäre, sollen die IT-ler zusätzlich komplett neue Technologien bereitstellen, um die neuen DevOps-Kollegen bestmöglich bei Neuerungen und schnelleren Release-Zyklen zu unterstützen. Anforderungen von DevOps an eine flexible und automatisierte Unternehmensinfrastruktur sind nicht immer einfach zu erfüllen und so wird der Trend zu DevOps für Infrastrukturteams eine zusätzliche Belastung. Prallen doch die unterschiedlichen Welten der IT-Operations und des DevOps-Teams aufeinander.

  • Automatisierte Speicherrichtlinien & Daten-GPS

    Die Globalisierung hat die Welt schrumpfen lassen. Nicht nur Reisende ziehen heute rund um den Globus, auch Daten sind dank Cloud Computing äußerst mobil und werden von Unternehmen aus den unterschiedlichsten Gründen zwischen Rechenzentren verschoben. Wir Menschen fühlen uns im eigenen Zuhause am sichersten. Auch für Unternehmensdaten gilt, dass das Risiko sie bei der Migration über Ländergrenzen hinweg zu verlieren, natürlich steigt. Als Mensch ist es heute mittels GPS sehr einfach, einen Standort zu bestimmen. Damit auch Unternehmen immer genau wissen, wo ihre Daten physisch gespeichert sind, bieten sich dank automatisierten Speicherrichtlinien und einem Daten-GPS neue Methoden, den exakten Standort von Daten festzulegen.

  • Mit SaaS & HaaS die IT-Abteilung entlasten

    In vielen Unternehmen stehen CIOs vor der Aufgabe, mit einer sich rasch entwickelnden IT-Welt Schritt halten zu müssen. Hinzu kommt, geeignetes Personal mit dem entsprechenden Know-how zu finden und sich stets gegen zunehmende Sicherheitsrisiken zu wappnen. Diese Herausforderungen beanspruchen zeitliche und finanzielle Ressourcen in der IT-Abteilung, die Unternehmen an anderer Stelle dringender bräuchten. Im Rahmen von Managed Services wie Software-as-a-Service (SaaS) und Hardware-as-a-Service (HaaS) werden Standardaufgaben an externe Dienstleister ausgelagert. Das schafft Freiräume und entlastet die IT-Abteilung. Welche Fragen sind relevant, um zu erkennen, ob auch das eigene Unternehmen von Managed Services profitieren kann.

  • Die Zukunft des File Sharing

    Um den Austausch von Forschungsdaten zwischen verschiedenen Teams am CERN zu ermöglichen, erfand Tim Berners-Lee in den achtziger Jahren, als Nebenprodukt sozusagen, das Internet. Heute ist das Internet die tragende Säule der weltweiten Kommunikation und aus unserem digitalen Leben nicht mehr wegzudenken. Überraschenderweise hat sich seit den frühen Tagen des Internets kaum etwas verändert: Nach wie vor werden für die Übermittlung von Dateien Protokolle aus den Anfangstagen des Internets genutzt. Zum damaligen Zeitpunkt war jedoch eine Welt, in der Datenmengen exponentiell wachsen, Hacker an allerlei Daten interessiert sind und Organisationen in denen zehntausende Mitarbeiter täglich millionenfach Dateien teilen, noch nicht vorstellbar. Worauf sollten Unternehmen also achten, wenn sie eine zukunftssichere File Sharing-Lösung nutzen möchten? Und welche neuen Technologien halten Einzug um Filesharing sicherer, komfortabler und schneller zu machen?