- Anzeige -


Sie sind hier: Startseite » Markt » Hintergrund

IoT in Supply-Chain-Initiativen und Logistik


Bei der Wahl der Cloud geht es daher um viel Das Thema Vertrauen spielt eine sehr wichtige Rolle
Cloud-Datenbanken stehen dabei allerdings vor einigen Herausforderungen

- Anzeigen -





Von Patrick Callaghan, Solutions Architect bei DataStax

Um es mit den Worten des britischen Schriftstellers Douglas Adams zu sagen: Das Internet der Dinge ist groß. Wirklich groß. Sie mögen denken, dass die Datenmenge, mit der Sie in Ihrem Unternehmen zu tun haben riesig ist – denn laut der IDG IoT Studie 2018 hat bereits ein Fünftel der befragten Unternehmen IoT-Projekte umgesetzt. In Wahrheit aber sind das nur Peanuts im Vergleich zu dem Volumen an Daten, das von vernetzten Fahrzeugen und IoT-fähigen Lieferketten erzeugt wird. Ganz zu schweigen von der Vielfalt an Datentypen und der Geschwindigkeit, mit der sie generiert werden. Dass der Umgang mit diesen Daten eine große Herausforderung ist, liegt auf der Hand. Was gilt es also zu beachten?

Mehr Daten, mehr Probleme oder vielleicht mehr Möglichkeiten?
Sensoren an jedem vernetzten Gerät sammeln durchgängig Informationen und erzeugen so Daten, um das aktuelle Geschehen abzubilden. Betrachtet man zudem den Straßenverkehr, erhält man Unmengen von Updates von tausenden Lastwagen, Bussen oder Autos. Sogar Schiffscontainer übermitteln Angaben zu ihrem Standort, ihrem Status und Problemen, mit denen sie zu kämpfen haben. Multipliziert man all diese Daten, ist das Ausmaß schon heute nicht mehr greifbar. Dabei planen einige globale Logistikunternehmen die Anzahl der Datenpunkte, mithilfe derer ein Paket oder eine Sendung nachverfolgt wird, noch zu erhöhen: Von heute etwa 20 bis 25 auf künftig mehr als 100.

Aus betriebswirtschaftlicher Sicht sind diese zusätzlichen Daten unerlässlich. Sie werden gebraucht, um mit Wettbewerbern im Supply Chain Management und der Logistik Schritt halten zu können. Denn richtig und in Echtzeit genutzt, können diese Daten die Servicequalität verbessern, indem sie aufkommende Probleme, zum Beispiel bei der Lieferung eines Produktes, frühzeitig lösen. Wie man es auch dreht und wendet: Die Zukunft wird uns noch mehr Daten bringen.

Die Datenflut kommt
Bereits heute produzieren wir mehr Daten als je zuvor in der Menschheitsgeschichte. Diese riesigen Datenmengen stellen Unternehmen vor eine Herausforderung: Sie müssen ihre internen IT-Infrastrukturen an die aktuellen Gegebenheiten anpassen. An dieser Stelle setzen Public-Cloud-Angebote an – aber sind diese auch für IoT-Daten geeignet?

Dabei hilft es, sich bewusst zu machen, wie die Daten eintreffen und wie sie von Datenbanken weiterverarbeitet werden. Datenbanken speichern Daten für die unterschiedlichsten Zwecke: als Transaktionssysteme, um weitere Anweisungen auszuführen, als Ablage von Langzeitdaten oder zur Analyse von Daten, die uns einen Einblick in das tägliche Geschehen geben kann. Gerade im Umgang mit IoT-Daten, die von unzähligen Sensoren stammen und bei denen die Reihenfolge entscheidend sein kann, ist die Skalierbarkeit der Datenbanken so wichtig. Hier setzen Cloud-Lösungen an: Anstatt intern neue Ressourcen aufzubauen, können Public Cloud Services einfach hinzugebucht werden, um die Nachfrage schnell zu decken. Cloud-Datenbanken stehen dabei allerdings vor einigen Herausforderungen.

Vertrauen ist gut, Kontrolle ist besser
Bei der Wahl der Cloud geht es daher um viel. Das Thema Vertrauen spielt eine sehr wichtige Rolle. Für viele international tätige Unternehmen, für die funktionierende Supply Chains und die Logistik eine herausragende Rolle spielen, sind die bestehenden Datensätze und Anwendungen unternehmenskritisch. Diese einfach zu Cloud-Providern zu verlagern ist schwierig, wenn nicht gar unmöglich.

Darüber hinaus sind die Daten selbst unglaublich wertvoll. Natürlich sind die großen Cloud-Anbieter in der Lage, ihre IT-Sicherheit effektiver zu gestalten als einzelne Unternehmen; manche Unternehmen geben die Kontrolle aber trotzdem ungerne ab. Nachvollziehbar, will man doch informiert sein, wo die eigenen Daten gespeichert werden und wer Zugriff hat. Hinzu kommt, dass gerade Handel- und Logistikunternehmen den Druck neuer Marktteilnehmer, wie bspw. Amazon, spüren. Sie konkurrieren mit den gleichen Unternehmen, die ihnen ihre Cloud-Infrastruktur zur Verfügung stellen – keine einfache Situation.

Deshalb entscheiden sich Unternehmen mit hohen Anforderungen an das Supply Chain Management und die Logistik vorwiegend für den Einsatz einer Hybrid Cloud. Schätzungen der Analysten von Gartner zufolge werden rund 90 Prozent der Unternehmen bis 2020 auf ein hybrides Infrastrukturmanagement setzen. Gleichzeitig prognostiziert Gartner eine Steigerung der Gesamtausgaben für Cloud Computing auf 68,4 Milliarden US-Dollar im Jahr 2020.

Enorme Datenmengen bergen enormes Potenzial
Je größer die Datenmenge, desto größer ist ihr Potenzial – aber auch die Komplexität des Datenmanagements. Gerade Logistikunternehmen verfügen über komplexe Netzwerke von Anwendungen, die intern Daten produzieren. Hinzu kommen die Unmengen an IoT-Daten. Führt man beide Datenbestände zusammen, bergen diese ein enormes Potenzial.

Allerdings ist dieser Schritt nicht einfach. Während Cloud-basierte Compute- und Storage-Services schnell skalierbar sind, um auch zunehmende Datenmengen zu bewältigen, gilt dies nicht auch automatisch für die Datenbank. Denn die meisten traditionellen Vertreter basieren auf Technologien, die für den Betrieb einzelner Instanzen oder kleinerer Cluster an einem einzigen Standort entwickelt wurden – aber definitiv nicht für die Cloud.

Flexibles Datenmanagement ist gefragt
Planen Unternehmen den Einsatz von IoT und damit eine Cloud Computing-Lösung zu implementieren, reicht es nicht aus, einzelne Datenbankinstanzen in der Cloud zu hosten. Vielmehr gilt es, Datenbanken so zu konzipieren, dass sie nativ in der Cloud laufen. Hierfür müssen sie vollständig verteilt sein, auf beliebig vielen Knoten laufen können und nicht abhängig von einem traditionellen "Master-Knoten" sein.

Des Weiteren muss eine Cloud-Datenbank heterogene Informationen verarbeiten können – sie bekommt es schließlich mit Daten zu tun, die Milliarden verschiedener Sensoren, Geräte und Personen ständig und weltweit verteilt über diverse Kanäle produzieren. Genau deshalb ist die Skalierbarkeit so wichtig, eine Datenbank muss sich flexibel den Gegebenheiten anpassen können.

Wichtig für Hybrid-Cloud-Umgebungen ist, dass sie unabhängig von der jeweils zugrunde liegenden Cloud arbeiten – sei es eine interne Private Cloud oder eine Public Cloud. Im Idealfall läuft das System über mehrere Public Clouds. So können Unternehmen die Vorteile derjenigen Provider nutzen, die in Sachen Standort und Service am besten zu ihnen passen – und überall aktiv sein. Lebt ein Unternehmen flexibles Datenmanagement, bewältigt es den Datenfluss spielend, den IoT-Projekte mit sich bringen.
(DataStax: ra)




eingetragen: 11.01.19
Newsletterlauf: 18.02.19

DataStax: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Hintergrund

  • Vorteile einer Hybrid-Multi-Cloud ausschöpfen

    2019 werden viele Unternehmen eine Cloud-First-Strategie verfolgen, um von mehr Flexibilität, Agilität und Kostenersparnis zu profitieren. Laut einer aktuellen Studie von Forrester Consulting haben bereits 86 Prozent der Unternehmen eine Multi-Cloud-Strategie. Aber ob sie nun die Services von verschiedenen Providern beziehen oder "nur" Private- und Public Cloud in einer Hybrid Cloud kombinieren mit einem - wie wir ihn nennen - Hybrid-Multi-Cloud-Ansatz, können sich Kunden für jeden Anwendungsfall die jeweils beste Lösung herauspicken. Wer mehrere Clouds gleichzeitig nutzt, steht aber auch vor neuen Herausforderungen in Bezug auf das Datenmanagement.

  • Die wichtigsten Cloud-Trends 2019

    Was bringt das Jahr 2019? Keine Frage: Die Cloud wird immer wichtiger. Doch eine Cloud-Form allein reicht den meisten Unternehmen nicht mehr aus. Viele setzen auf eine Hybrid- oder Multi-Cloud-Umgebung. Verteilte Speicherorte und Datenquellen spielen auch für künstliche Intelligenz eine wichtige Rolle - ein Top-Thema, das weiter Fahrt aufnehmen wird. Dabei erfordern sowohl KI als auch die Multi Cloud ein unabhängiges Datenmanagement in der Cloud. Was sich hinter diesen Trends verbirgt und wie sie zusammenspielen, zeigt Peter Wüst, Senior Director Cloud Infrastructure & Cloud Data Services EMEA bei NetApp, im folgenden Beitrag.

  • Künstliche Intelligenz unterstützt ITSM-Prozesse

    Laut Schätzung des Marktanalysten Gartner werden CIOs bis 2023 mehr als das Dreifache der Endgeräte verantworten, als sie aktuell verwalten. Ohne technologische Unterstützung werden sie diese Aufgabe auf Dauer kaum bewältigen können. Doch welche Technologiethemen sollten CIOs 2019 im Blick behalten, wenn es um die Vereinheitlichung des IT-Betriebs und den Abbau von Silos geht? Ivanti hat vier Fokusbereiche im IT-Servicemanagement identifiziert: Maschinelles Lernen und Künstliche Intelligenz (KI) finden in den kommenden fünf Jahren einen großflächigen Eingang in das ITSM. Artificially Intelligent Service Management (AISM) wird dabei im ersten Schritt das traditionelle Service Management ergänzen. Die zentralen Stärken für KI liegen im Incident und Request Management, indem sie Vorfälle und Anfragen interpretiert, bevor diese in das traditionelle IT-Servicemanagement eingesteuert werden.

  • Datensicherheit und Compliance

    Die Cloud-Nutzung hat 2018 einen neuen Höchststand erreicht und der Wachstumstrend wird voraussichtlich weiter anhalten. Mit einer beschleunigten Bereitstellung, einer flexibleren Kostengestaltung der Services und einfacheren Arbeitsabläufen bietet sie Vorteile, auf die Unternehmen im Zuge der Digitalisierung nicht verzichten können. Die unmittelbaren Vorteile tragen jedoch dazu bei, dass die damit verbundenen Konsequenzen für die IT-Sicherheit bei Unternehmen zunächst außer Acht gelassen werden. Die wesentliche Herausforderung für Unternehmen besteht darin, die in die Cloud ausgelagerten und genutzten Daten sicherzustellen. Für nicht wenige Organisationen bedeutet dies jedoch ein nahezu radikales Umdenken. Zusätzlich zur Sicherung von Umgebungen und Infrastrukturen ist eine weitere Ebene erforderlich, die bei den Daten ansetzt. Wie Unternehmen sich dieser Herausforderung nähern, welche Maßnahmen sie ergreifen und welche wesentlichen nächsten Schritte sie in diesem Zusammenhang sehen, darüber gibt eine Studie von Bitglass Aufschluss.

  • Fragen nach der richtigen Cloud

    Viele der Trend-Technologien wie Künstliche Intelligenz (KI) oder das Internet of Things (IoT) sind bereits bekannte Größen. Diese werden sich durch ihre Rolle im Datenmanagement neu definieren - und dann eine noch zentralere Rolle im Arbeitsalltag einnehmen. Zusammen mit Containerisierung und noch intelligenteren IoT-Edge-Geräten können Entwickler damit im kommenden Jahr die nötigen Impulse für einen datengetriebenen Markterfolg und neue Geschäftsmöglichkeiten setzen.

  • Alles richtet sich nach der Multi-Cloud

    Die Cloud ist für viele Unternehmen heute selbstverständlicher Teil ihres Betriebs. Entsprechend entwickeln sich die individuellen Anforderungen der Unternehmen stetig weiter. Immer mehr von ihnen suchen professionelle Cloud-Berater, anpassbare Services und Multi-Cloud-Technologien. Dieses Angebot leisten Cloud Service Provider der nächsten Generation - sie halten mit dem schnell wachsenden Cloud-Ökosystem und den neuen Kundenanforderungen Schritt. Lee James, CTO EMEA bei dem Next-Gen-Cloud-Service Provider Rackspace, beobachtet genau, wie sich die Cloud-Branche verändert - und verrät Ihnen seine Prognose für die Cloud- und Technologie-Trends 2019.

  • Backup und Disaster Recovery

    Der Storage-Markt ist in Bewegung. In der Einschätzung von Arcserve werden vor allem drei Trends den Markt für Backup und Disaster Recovery bestimmen: Kostenprobleme in der Public Cloud, künstliche Intelligenz und sich selbst verwaltende Service-Dienstleistungen. Die Komplexität von IT-Infrastrukturen und neue Cloud-Technologien werden Hersteller, den Channel und die Kunden zusätzlich vor neue Herausforderungen stellen. 2018 war vor allem von anspruchsvolleren Ransomware-Attacken und von der neuen Datensicherungsregelung der DSGVO bestimmt. Viele Cloud-First-Sicherungsstrategien endeten in unerwartet hohen Kosten und einem erhöhten Datenverlust-Risiko. Arcserve sieht die Verantwortlichen und den Markt für Datensicherung und -Wiederherstellungen vor den folgenden Herausforderungen.

  • IT-übergreifende Automatisierungsstrategie

    Laut Schätzung des Marktanalysten Gartner werden CIOs bis 2023 mehr als das Dreifache der Endgeräte verantworten, als sie aktuell verwalten. Ohne technologische Unterstützung werden sie diese Aufgabe auf Dauer kaum bewältigen können. Doch welche Technologiethemen sollten CIOs 2019 im Blick behalten, wenn es um die Vereinheitlichung des IT-Betriebs und den Abbau von Silos geht? Ivanti hat vier Fokusbereiche im IT-Servicemanagement identifiziert: Künstliche Intelligenz unterstützt ITSM-Prozesse Maschinelles Lernen und Künstliche Intelligenz (KI) finden in den kommenden fünf Jahren einen großflächigen Eingang in das ITSM. Artificially Intelligent Service Management (AISM) wird dabei im ersten Schritt das traditionelle Service Management ergänzen. Die zentralen Stärken für KI liegen im Incident und Request Management, indem sie Vorfälle und Anfragen interpretiert, bevor diese in das traditionelle IT-Servicemanagement eingesteuert werden.

  • IoT in Supply-Chain-Initiativen und Logistik

    Um es mit den Worten des britischen Schriftstellers Douglas Adams zu sagen: Das Internet der Dinge ist groß. Wirklich groß. Sie mögen denken, dass die Datenmenge, mit der Sie in Ihrem Unternehmen zu tun haben riesig ist - denn laut der IDG IoT Studie 2018 hat bereits ein Fünftel der befragten Unternehmen IoT-Projekte umgesetzt. In Wahrheit aber sind das nur Peanuts im Vergleich zu dem Volumen an Daten, das von vernetzten Fahrzeugen und IoT-fähigen Lieferketten erzeugt wird. Ganz zu schweigen von der Vielfalt an Datentypen und der Geschwindigkeit, mit der sie generiert werden. Dass der Umgang mit diesen Daten eine große Herausforderung ist, liegt auf der Hand. Was gilt es also zu beachten?

  • Beginn der Petabyte-Ära

    Neue Technologien und wirtschaftliche Interessen verändern die IT und damit auch die Anforderungen an die Datenspeicherung und -sicherheit. Für das kommende Jahr lassen sich schon heute vier grundlegende Trends identifizieren. Früher war die Datenverwaltung im Petabyte-Format eine Herausforderung, der sich nur große Unternehmen stellen mussten. Mit der Verzehnfachung der Datenmenge (laut IDC) beginnt die Petabyte-Ära jetzt auch für mittelständische Unternehmen. Was früher eine Ausnahme war, wird sich zum Standard für KMU entwickeln, denn mittelständische Unternehmen erleben gerade schmerzhaft, dass ihre IT-Architektur für dieses Datenwachstum nicht ausgelegt ist.