- Anzeige -


Sie sind hier: Startseite » Markt » Tipps und Hinweise

Keine Digitalisierung ohne 5G


Wie 5G die Datenmanagement-Strategie beeinflussen wird
5G durchdringt alle Lebensbereiche und Industriezweige

- Anzeigen -





Das Thema 5G beherrscht derzeit beinahe täglich die Nachrichten, besonders seit dem Mobile World Congress (MWC) 2019, der Ende Februar in Barcelona stattfand. So haben Huawei und Samsung auf dem Kongress ihre ersten 5G-fähigen Handy-Modelle vorgestellt. Zudem wurde das Potenzial der neuen Technologie bei einem ersten Videoanruf und einer ersten telemedizinisch betreuten Operation live unter Beweis gestellt. Und auch die Weltpolitik beschäftigt 5G: Die USA und China streiten seit Monaten wirtschaftlich wie politisch mit immer härteren Bandagen über die Vorreiterrolle beim Netzausbau. Die deutsche Politik hadert dagegen noch mit sich und ihrer Rolle im internationalen Wettstreit. Und läuft so mehr denn je Gefahr, den technologischen Anschluss zu verpassen.

4G brachte eine deutlich höhere Latenz im Internet, so dass Filme schnell und ohne Abbruch heruntergeladen und Online-Einkäufe endlich ohne Störung getätigt werden konnten. Was aber ist nun so neu an 5G? Die Technologie verspricht vor allem eines: höchste Geschwindigkeit bis hin zur Echtzeitübertragung. Damit aber fungiert 5G als der zentrale Brennstoff der Digitalisierung: Ein Großteil der Trends und Entwicklungen der letzten Jahre in den Bereichen IoT, Industrie 4.0, autonomes Fahren, Online-Dienste und neue, disruptive Geschäftsmodelle sind ohne 5G schlichtweg nicht denkbar.

Laut einer aktuellen Studie von Gartner planen deshalb 66 Prozent der befragten Unternehmen bis 2020, 5G einzusetzen – vor allem aus Effizienzgründen. Die Provider müssen sicherstellen, dass diese zügige Umstellung funktioniert. Aber auch die Politik ist gefragt: Sie muss mit gewährleisten, dass deutsche Unternehmen dabei nicht abgehängt werden. Dafür braucht es eine andere Investitionskultur, die eine flächendeckende Netzabdeckung und einen zügigen Ausbau von 5G sicherstellt.

Aber nicht nur die Politik muss der neuen Technologie gerecht werden. Auch Unternehmen stehen bei 5G vor Herausforderungen. Und besonders gilt das beim Thema Datenmanagement.

5G verändert auch die Ansprüche an das Datenmanagement
Denn der Übergang zu 5G-Mobilfunknetzen wird nicht nur zu einer Zunahme der Handy-Nutzung führen. Vielmehr werden sämtliche drahtlose Geräte in größerem Umfang genutzt werden. Dazu gehören neben Handys auch Roboter, Sicherheitskameras und Autos, die Verkehrsdaten senden. Und alle diese Geräte stehen nicht nur für sich, sondern sind via IoT-Konnektivität miteinander verbunden.

Das hat Auswirkungen, für den einzelnen Konsumenten ebenso wie für ganze Industriezweige. Einige Beispiele:

>> Im Gesundheitssektor gilt es, eine individuelle Gesundheitsversorgung sicherzustellen, die beispielsweise via Fernüberwachung den Zustand eines Patienten kontrolliert und computerassistiert operiert.

>> Die Fertigungsindustrie muss garantieren, dass Smart Factories möglichst unterbrechungs- und fehlerfrei produzieren.

>> In der Automobilindustrie stehen intelligente Fahrassistenzsysteme und autonome Fahrzeuge vor der Einführung.

>> Im Energiesektor gilt es, die Weiterentwicklung intelligenter Energienetze zu gewährleisten.

>> Und die Medien- und Unterhaltungsindustrie wird einer steigenden Nachfrage nach hochauflösenden Multimedia- sowie Live- und On-Demand-Inhalten gerecht werden müssen.

Mit all diesen Auswirkungen verändern sich auch die Ansprüche an das Datenmanagement. Viele Unternehmen haben zwar bereits die Einführung hybrider Cloud-Lösungen vorangetrieben, um mit ihren Datenmanagementanwendungen mehr Mobilität, Skalierbarkeit und Kosteneffizienz zu erreichen. Im 5G-Zeitalter ist es damit aber nicht getan: Die Technologie verlangt nach neuen hybriden Cloud-Datenmanagement-Strategien, die es Unternehmen ermöglichen, größere Datenmengen zu verarbeiten und höchste Anforderungen an Zuverlässigkeit und Leistung zu erfüllen.

Folgen für das Datenmanagement
Wollen Unternehmen 5G gerecht werden, müssen sie daher eine Datenmanagementstrategie verfolgen und aufrechterhalten, die nicht nur größere Datenmengen bewältigen kann, sondern auch hohe Geschwindigkeiten. Zudem muss das Datenmanagement das Risiko von Ausfallzeiten möglichst geringhalten. Viele Firmen machen sich darüber allerdings noch keine Gedanken. Und so werden sie erst viel zu spät erkennen, dass 5G die Art und Weise, wie sie Anwendungen erstellen, grundlegend verändern und die Skalierbarkeit in Zukunft eine höhere Priorität erhalten wird. Denn es gilt mehr als je zuvor, wachsenden Datenmengen gerecht zu werden, hohe Geschwindigkeiten aufrecht zu erhalten und das Risiko von Ausfallzeiten zu minimieren.

Zudem werden Unternehmen und ganze Branchen in Zeiten von 5G immer stärker von hybriden Cloud-Anwendungen und -Lösungen abhängig. Daher spielen Legacy-Anwendungen eine immer geringere und Microservices eine immer größere Rolle. Denn nur sie ermöglichen eine schnellere und kontinuierliche Bereitstellung neuer Anwendungen.

Wie können Unternehmen sich also vorbereiten?
Damit der Übergang zu einem 5G-konformen-Datenmanagement funktioniert, müssen silobasierte Ökosysteme der Vergangenheit angehören, nicht kompatible Formate in unterschiedlichen Netzwerken ersetzt werden und einheitliche Formattypen vorherrschen. Außerdem ist es wichtig, sicherzustellen, dass Systeme und Applikationen, die Rohdaten schnell sammeln und analysieren, einsatzbereit sind – dafür muss das gesamte Datenmanagement möglichst einheitlich gestaltet sein. Und die Grundlage hierfür sollte eine konvergente Plattform sein, die alle Aspekte des neuen Datenmanagements aktiv unterstützt.

Dafür erfordert es eine Überprüfung der derzeitigen Datenbankfähigkeiten. Unternehmen sollten möglichst früh feststellen, ob die vorhandenen Plattformen für den Aufbau und die Anpassung an das schnelle Datenwachstum ausreichend sind. Die Verwendung eines verteilten, Cloud-basierten Data Layers ermöglicht es Unternehmen, die Effizienz zu verbessern, Kosten zu senken und viele Netzwerkprozesse ohne Ausfallzeiten zu automatisieren.

Unternehmen aller Branchen werden bald eine zuverlässige, effiziente, skalierbare und sichere Datenbankmanagementlösung benötigen, um mit dem Fortschritt mithalten zu können und die neue Generation von Kundenanforderungen effektiv zu verwalten. (DataStax: ra)

eingetragen: 09.04.19
Newsletterlauf: 15.05.19

DataStax: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Tipps und Hinweise

  • DSGVO: Fünf Tipps für klare Sicht in der Cloud

    Die Nutzung von Cloud-Services ist für viele Unternehmen eine betriebliche Notwendigkeit geworden. Werden personenbezogene Daten in die Cloud ausgelagert, gelten bei der Auswahl eines Cloud-Anbieters jedoch besondere Vorgaben durch die DSGVO. Um die Compliance-Vorgaben bestmöglich zu erfüllen, sollten Unternehmen einige wesentliche Punkte beachten. Für Cloud-Services gilt das Modell der Shared Responsibility, das heißt, dass sowohl der Anbieter als auch das nutzende Unternehmen für die Datensicherheit verantwortlich sind. Während der Nutzer dafür zu sorgen hat, dass die Datennutzung in der Cloud sicher ist, hat der Cloud-Anbieter für die Sicherheit der bereitgestellten Infrastruktur zu garantieren. Werden für personenbezogene Daten Cloud-Services genutzt, verlangt die DSGVO von den Nutzern, sich zu vergewissern, dass der Cloud-Anbieter seiner Verantwortung in ausreichendem Maße nachkommt. Unternehmen müssen also sicherstellen, dass das Datenschutzniveau, dass sie ihren Kunden zusichern, auch jenseits ihrer eigenen Infrastruktur in der Cloud aufrechterhalten bleibt.

  • Keine Digitalisierung ohne 5G

    Das Thema 5G beherrscht derzeit beinahe täglich die Nachrichten, besonders seit dem Mobile World Congress (MWC) 2019, der Ende Februar in Barcelona stattfand. So haben Huawei und Samsung auf dem Kongress ihre ersten 5G-fähigen Handy-Modelle vorgestellt. Zudem wurde das Potenzial der neuen Technologie bei einem ersten Videoanruf und einer ersten telemedizinisch betreuten Operation live unter Beweis gestellt. Und auch die Weltpolitik beschäftigt 5G: Die USA und China streiten seit Monaten wirtschaftlich wie politisch mit immer härteren Bandagen über die Vorreiterrolle beim Netzausbau. Die deutsche Politik hadert dagegen noch mit sich und ihrer Rolle im internationalen Wettstreit. Und läuft so mehr denn je Gefahr, den technologischen Anschluss zu verpassen.

  • Grundlage für anstehende Pilotzertifizierungen

    Das Ziel des Forschungsprojektes "Auditor" ist, eine EU-weite nachhaltig anwendbare Datenschutzzertifizierung von Cloud-Diensten zu konzeptionieren, exemplarisch umzusetzen und zu erproben. Nun haben die Projektpartner einen wesentlichen Meilenstein erreicht: Mit der Neufassung des Kriterienkatalogs liegt ab jetzt ein Prüfstandard für die Datenschutz-Zertifizierung von Cloud-Diensten gemäß den Anforderungen der EU-Datenschutz Grundverordnung (DSGVO) vor. Ein Cloud-Anbieter muss in seiner Rolle als Auftragsverarbeiter Vorschriften erfüllen, um seine Datenverarbeitungsvorgänge zertifizieren zu lassen. Durch den "Auditor"-Kriterienkatalog werden die technikneutralen Vorschriften der DSGVO in prüffähige, normative Kriterien übersetzt.

  • Sechs Gründe für Cloud-basiertes Data Warehouse

    Ein Data Warehouse, das Daten aus verschiedenen Quellen zusammenfasst, um sie analysieren und darauf reagieren zu können, ist heute entscheidend für den Geschäftserfolg. Denn es verarbeitet schnell die enormen Datenmengen, die sich heute in Unternehmen ansammeln. Darauf basierend können Führungskräfte zuverlässige datenbasierte Entscheidungen treffen. Allerdings halten es fast zwei Drittel der kürzlich befragten Experten für "schwierig" oder "sehr schwierig", ihre Data Warehouse-Lösung zu verwalten. So entwickeln sich Cloud-basierte Data Warehouses aufgrund der steigenden Komplexität und Menge der Daten zur effizientesten Möglichkeit, diese Komplexität zu reduzieren und gleichzeitig die zunehmend geforderte Agilität, Sicherheit und Performance zu gewährleisten.

  • Nach Möglichkeit keine Nur-Cloud-Ansätze

    Cloud-Lösungen sind auch im IT-Security-Bereich zunehmend verbreitet. Viele Anbieter verlagern Sicherheitsmechanismen und andere Dienste in ihre Rechenzentren, anstatt diese auf klassische Weise bei den Kunden vor Ort (On-Premises) zu betreiben. Doch ist die Anti-Malware-Lösung aus der Cloud tatsächlich die geeignete Variante für jeden Anwendungsfall? Und wo genau liegen eigentlich die möglichen Vor- und Nachteile des Virenschutzes aus der Wolke?

  • Argumente für Unified Communications

    In der heutigen Arbeitswelt, die von Dienstleistungen und wissensbasierten Tätigkeiten geprägt ist, steigt die Bedeutung von Kommunikation und Zusammenarbeit immer weiter. Gleichzeitig erhöht die Consumerization den Druck auf Organisationen, ihren Mitarbeitern intuitive und einfach zu nutzende Applikation zur Verfügung zu stellen. Schon seit geraumer Zeit überlegen daher viele Unternehmen und IT-Führungskräfte, ihre Kommunikationslösungen zu streamlinen und Video, Telefonie, Chat und das Teilen von Dateien in einem zentralen System zusammenzuführen.

  • Cloud: Effizienter Weg zum E-Government

    Um in Zeiten von "Cloud first"-Strategien und IoT Bürgern bestmöglich behilflich zu sein, müssen sich auch die Behörden selbst neu erfinden - und mit ihnen die IT-Profis, die den digitalen Wandel gestalten und verwalten. Während neue Technologien im Privaten heute so schnell Einzug halten wie noch nie, sind IT-Experten in Behörden vielerorts noch mit Überzeugungsarbeit oder Kinderkrankheiten beschäftigt. Hie und da fehlen schlichtweg die Mittel, woanders ist die digitale Transformation eben noch kein Teil der Unternehmenskultur - beides kann sich negativ auf Effizienz und Sicherheit auswirken.

  • DataOps: Eine willkommene Hilfestellung

    In der heutigen Geschäftslandschaft ist jede Firma mit Wettbewerbsanspruch ein Datenunternehmen. Denn wer dauerhaft erfolgreich bleiben möchte, muss alle verfügbaren Daten strategisch einsetzen. Dabei sollen Firmen aber weiterhin sensible Kundeninformationen konsequent schützen und die Vielzahl neuer und strengerer Datenvorschriften (über)erfüllen. Gleichzeitig benötigen allerdings immer mehr Nutzer und Mitarbeiter Zugang zu immer mehr und umfangreicheren Datensätzen. Mit DataOps können Unternehmen hier die Balance zwischen Sicherheit und Zugänglichkeit finden.

  • AIOps-Ansatz liefert klare Vorteile

    Über Fehler in ihrem IT-Betrieb erfahren Unternehmen heute meist dadurch, dass sich Kunden über Probleme beschweren. Eine Umfrage von AppDynamics hat ergeben, dass 58 Prozent der IT-Teams durch Anrufe oder Kunden-E-Mails über Fehlfunktionen informiert werden. Führungskräfte oder andere Mitarbeiter außerhalb der IT entdecken 55 Prozent der bekannten Probleme. 38 Prozent werden durch User Posts in sozialen Netzwerken aufgedeckt. Natürlich wäre es für alle Beteiligten besser, wenn Unternehmen Fehler finden, bevor sich Kunden beschweren, oder sogar strukturelle Probleme so früh erkennen, dass Fehler gar nicht erst auftreten. Die enorme Komplexität heutiger Systeme und Infrastrukturen erlaubt das, zumindest auf konventionellen Wegen, nicht mehr. In einem vergleichsweise einfachen technischen System, wie einer Dampfmaschine, kann ein guter Maschinist durch regelmäßige Wartung für einen reibungslosen Betrieb sorgen. Er weiß, wo er seine Maschine schmieren muss, welche Belastungen er ihr zumuten kann und wann es Zeit wird, Verschleißteile auszutauschen. In modernen digitalen Systemen können Menschen dieses Verständnis nicht mehr erreichen.

  • Angst vor einem "Lock-in"

    Die Wahl der richtigen Plattform für Unternehmensapplikationen mag auf den ersten Blick nebensächlich erscheinen, dabei hat sie immensen Einfluss auf alle folgenden Entscheidungen im Hinblick auf die Entwicklungsumgebung. Denn fällt die Wahl auf den falschen Cloud Computing-Anbieter, das falsche Betriebssystem oder die falsche Programmiersprache kann das im Nachhinein bei Mitarbeitern zu Unzufriedenheit und Zähneknirschen führen und durch erhöhten Personalaufwand richtig teuer werden. Um das zu vermeiden, geht der Trend in Entwicklungsteams immer mehr zu (Software-)Containern und Microservices. Indem sie Fremdmaterial entfernen und die Größe der Images auf das erforderliche Maß reduzieren, erleichtern es Container, Software zielgerichtet einzusetzen. Und diese Konzentration auf das Wesentliche steigert die Produktivität von Entwicklern enorm. Eine Umfrage von 451 Research hat das jüngst noch einmal eindrucksvoll belegt: Rund 57 Prozent der befragten Unternehmen nannten die Produktivität der Entwickler als einen entscheidenden Grund für ihren Wechsel zu Containern.