- Anzeige -


Sie sind hier: Startseite » Markt » Hintergrund

Warum eine Datenstrategie eine gute Idee ist


Kommentar zur Datenstrategie der Bundesregierung
Mit ihrer neu erarbeiteten Datenstrategie liefert die deutsche Bundesregierung einen Rahmen sowohl für die gesellschaftlichen als auch für die wirtschaftlichen Herausforderungen der Digitalisierung und der damit verbundenen Datenanalyse

- Anzeigen -





Von Wim Stoop, CDP Customer and Product Director bei Cloudera

Nutzer wollen wissen, was mit ihren Daten geschieht und wie diese verwendet werden. Die in diesem Zusammenhang von der Bundesregierung erarbeitete Datenstrategie versucht einen Rahmen für die Herausforderungen der Digitalisierung und der damit verbundenen Datenanalyse zu schaffen. Inwiefern eröffnet sie damit Chancen und in welchen Bereichen gibt es schon jetzt Anpassungsbedarf? Daten nehmen in unserem Leben eine entscheidende Rolle ein. Von der Nutzung einer App bis hin zum Einkauf im Internet ist die Speicherung und Analyse von Daten selbstverständlich und allgegenwärtig geworden.

Unternehmen profitieren dank Digitalisierung von effizienteren, datengetriebenen Produktionsprozessen und erschließen neue Geschäftsmodelle. Doch bleibt das immense Innovationspotenzial, das die digitale Vernetzung bietet, noch weitgehend ungenutzt. Nur einige wenige Player haben ihre Chance früh erkannt und Geschäftsmodelle auf Basis von Daten geschaffen, die sie zu den führenden Unternehmen machen. So haben Facebook und Google eine Datenhoheit erreicht, die inzwischen in der Kritik steht. Die Nutzer wollen wissen, was mit ihren Daten geschieht und wie diese genutzt werden.

Gleichzeitig erkennen Regierungen, dass man die Datenhoheit nicht einigen wenigen Konzernen überlassen kann, will man Pluralität und Innovationen fördern. Der öffentliche Sektor und Regierungen lernen zwar auch von der Privatwirtschaft, jedoch haben sie verstanden, dass sie mit gutem Beispiel vorangehen und eine ethische und transparente Datenanalyse befördern können. Sie erreichen das, indem sie die Verwaltung digitaler machen, den Austausch und die Erhebung von Daten vernetzen und für einen sicheren und ethischen Umgang mit Daten eintreten.

Ein Rahmen für den Umgang mit Daten
Mit ihrer neu erarbeiteten Datenstrategie liefert die deutsche Bundesregierung einen Rahmen sowohl für die gesellschaftlichen als auch für die wirtschaftlichen Herausforderungen der Digitalisierung und der damit verbundenen Datenanalyse. Vor allem die Absicht, Dateninfrastrukturen effizient und nachhaltig zu gestalten sowie eine innovative und ethisch verantwortungsvolle Datennutzung zu fördern, ist vielversprechend. Denn Daten sind ein wesentlicher Faktor für Unternehmen, um innovativ und erfolgreich zu arbeiten. Für sie ist es von elementarer Bedeutung, ihre Daten schneller verfügbar zu machen, um mehr Anwendungsfälle einsetzen und schneller einen Mehrwert generieren zu können.

Ein maßgeblicher Wegbereiter hierfür ist eine Enterprise Data Cloud, da sie konsistente Datensicherheit und Datenverwaltung über den gesamten Datenlebenszyklus hinweg bietet. Und zwar überall dort, wo die Daten und Analysen eingesetzt werden sollen, wie beispielsweise der hybriden und der Multi Cloud. Es bleibt zu hoffen, dass die neue Datenstrategie hier ansetzt und Modelle fördert, die die Cloud-Strategie in Richtung Kooperation öffnet. Unternehmen und Organisationen könnten damit in Zukunft ihre Daten sicher und gesetzeskonform teilen, ohne ihr geistiges Eigentum preisgeben zu müssen. Gleichzeitig ließen sich Daten gemeinsam nutzen – aber auf ethische und transparente Weise.

Für alle gemeinsam gültige Regeln
Staatliche Regulierung kann somit dazu beitragen, dass eine Datenkultur entsteht, die der Allgemeinheit dient. Sie kann die Datensicherheit fördern und die anhaltende Skepsis der Bürger in Hinblick auf Datenanalysen und datengetriebene Erkenntnisse verringern, indem sie die Allmacht einzelner Konzerne aufhebt und Regeln schafft, die für alle gelten. Dabei geht es in erster Linie darum, Vertrauen zu schaffen, wie Daten genutzt werden. Es geht um den Zugang zu Daten und darum, wie sie geschützt werden können. Und es geht um gemeinsame Projekte, die allen helfen. So wäre die Entwicklung eines Impfstoffes gegen Covid-19 nie in so kurzer Zeit gelungen, wenn nicht eine enorme Menge an Daten und Analysen in diese Arbeit geflossen wären. Das soll nicht heißen, dass jedes Unternehmen die Grundlage seines Geschäftsmodells – etwa den Einsatz von Algorithmen – offenlegen muss.

Es bedeutet, dass gemeingültige Regeln für den Einsatz von Big-Data-Anwendungen erstellt werden. Für Wissenschaft wie Wirtschaft kann das bedeuten, neue Plattformen für den Austausch von Analyseergebnissen oder die Implementierung neuer Geschäftsmodelle zu schaffen. Eine passende Strategie zu entwickeln, ist der Dreh- und Angelpunkt dafür. Denn nur wer seine Daten versteht ist auch in der Lage, Vertrauen in die Nutzung dieser aufzubauen und schließlich auch Geld damit zu verdienen.

Strategie als Grundlage der Transformation
Über die in der Datenstrategie festgelegten Bereiche hinaus sollte die Regierung sehr schnell Klarheit bezüglich der Entwicklung und Anwendung von Data Science und maschinellem Lernen (ML) schaffen. Diese sind mächtige Werkzeuge, die Unternehmen zur Verfügung stehen, um bessere Entscheidungen zu treffen. Hierbei ist die Problematik, dass die dafür verwendeten Modelle wie Blackboxen sind, die mit einer Vielzahl von Daten erstellt wurden. Unbeabsichtigte Voreingenommenheit kann sich in die Algorithmen durch unbewusste Vorurteile des Entwicklers, durch die Verwendung von verzerrten Trainingsdaten oder durch Datendrift einschleichen, bei der die Eingabedaten im Laufe der Zeit erheblich von den verwendeten Trainingsdaten abweichen.

Eine Erweiterung der Strategie, um Anleitungen zur Vermeidung von Voreingenommenheit bereitzustellen und laufend darauf zu prüfen, würde wiederum zu einem größeren Vertrauen in ML und KI beitragen. Unternehmen können so die ethische und angemessene Nutzung ihrer Daten demonstrieren, ohne ihr spezifisches Wissen aus der Hand zu geben. Hier ist proaktives Handeln gefragt, denn maschinelles Lernen befähigt uns, Erkenntnisse über die Zukunft zu gewinnen und entsprechende Maßnahmen zu ermitteln.

Die digitale Transformation umfasst auch immer die elektronische Verarbeitung von Daten. Ein gemeinsames Framework, wie es auch in der Datenstrategie vorgesehen ist, verhindert, dass Daten unzugänglich in Datensilos verschwinden. Damit wird es einfacher, den richtigen Geschäftspartner zu finden und lohnende Kooperationen einzugehen. Wenn Unternehmen ermächtigt werden, ihren Datenpool zugänglich und auswertbar zu machen, wenn Daten allgemein und sicher verfügbar sind, können wir alle einen größeren Nutzen aus diesen Daten ziehen. (Cloudera: ra)

eingetragen: 06.05.21
Newsletterlauf: 08.07.21

Cloudera: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Hintergrund

  • Automatisierung von Rechenzentren

    Laut einer aktuellen Prognose des Research- und Beratungsunternehmens Gartner wird die Hälfte der Cloud-Rechenzentren bis 2025 hochentwickelte Roboter einsetzen, welche mit Künstlicher Intelligenz (KI) und Machine Learning (ML)-Fähigkeiten ausgestattet sein werden. Dies soll helfen die Betriebseffizienz um 30 Prozent zu steigern. "Es gibt eine immer größer werdende Kluft zwischen dem Fachpersonal und der zunehmenden Nachfrage für Server und Speichervolumen in den Rechenzentren", erklärt Sid Nag, Research Vice President bei Gartner. In diesen vier Bereichen sollen Roboter innerhalb der nächsten fünf Jahre bei der Automatisierung von Rechenzentren helfen: Server Upgrades und Wartung, Monitoring, Sicherheit und Einsatz von KI/ML.

  • Ohne Zwischenstopp in die Cloud

    Myrko Rudolph, Geschäftsführer der exapture GmbH und Experte für dezentrale Digitalisierung, informiert über die neuen Entwicklungen im Cloud Computing und prophezeit der Kombination mit Scanprozessen eine große Zukunft. "Unser Umgang mit Papierdokumenten hat sich bereits in den vergangenen Jahrzehnten drastisch verändert. Digitale Arbeitsweisen nahmen im Verlauf einen immer größeren Stellenwert im alltäglichen Leben ein, sodass rein analoge Prozesse heutzutage kaum noch stattfinden. Durch intelligente Scansoftware ließen sich haptische und virtuelle Datensätze weitestgehend innerhalb aneinander angepasster Abläufe vereinen. Während der Pandemie gab es nun einen weiteren Schub für diese Entwicklung, denn längst nehmen wir sogar den Arbeitsplatz selbst nicht mehr als physischen Ort wahr, den wir morgens betreten und abends wieder verlassen - in dessen vier Wänden wir Blätter abheften und bei Bedarf wieder aus den Aktenschränken suchen. ‚Immer und überall' gilt als Devise der Stunde und macht einen dezentralen Zugriff auf stetig relevante Daten unabdingbar. Das heißt, Informationen müssen in die Cloud - und das möglichst schnell. Warum also noch vermeidbare Umwege nehmen?

  • Sichere Verwahrung in der Private Cloud

    Keine Branche in der modernen Wirtschaft steht unter einem derart hohen Innovationsdruck wie die Informationstechnik. Sei es im Kundenservice, in externen wie internen Kommunikationsabläufen, im Management der Produktionsabläufe oder in der Supply Chain - in jeglichen Bereichen eines Betriebes herrscht ein großer Bedarf an digitalen Software-Lösungen, die Unternehmensprozesse automatisieren, überwachen und organisieren. Folglich resultiert daraus eine Fülle von zu verarbeitenden Datenmengen, die hohe Kosten sowie einen großen personellen und organisatorischen Aufwand verursachen."Da sich die Digitalisierung von Unternehmensprozessen in Zukunft einer vermehrten Ausweitung gegenübersieht, sollte die Frage erlaubt sein, ob die interne Datenverwaltung in einem eigenen Rechenzentrum überhaupt noch sinnvoll ist", stellt Jerome Evans, Gründer und Geschäftsführer der diva-e Datacenters GmbH, klar. Als Lösungsansatz und Versprechen für die Zukunft stellen sich dabei externe Rechenzentren und private Cloud Umgebungen heraus, die Unternehmen einerseits in jeglichen Fragen der Speicherung und Bereitstellung von Daten unterstützen, sowie Kosten senken und andererseits die vorhandenen sensiblen Daten sicher an geografisch getrennten Server-Standorten verwahren.

  • "Gaia-X" soll sichere Infrastruktur schaffen

    Wie der "Cloud-Monitor 2021" von Bitkom und KPMG zeigt, hat sich - nicht zuletzt durch die Corona-Krise - die Cloud in Deutschland durchgesetzt. Von den 550 befragten Unternehmen ab 20 Mitarbeitenden setzen 82 Prozent bereits auf Cloud Computing-Infrastrukturen. Der Großteil dieser Unternehmen ist in ihrer Cloud-Strategie allerdings abhängig von amerikanischen sowie chinesischen Cloud-Anbietern. Eine Alternative böte die europäischen Cloud Gaia-X, mit der die EU europäische Werte wahren und neue Maßstäbe bezüglich des Datenschutzes setzen wollte. Das ambitionierte Digitalprojekt deutscher und französischer Unternehmen, das im Herbst 2019 startete und an der inzwischen über 300 Organisationen beteiligt sind, darunter Bosch, Siemens, SAP, der Telekom, dem Bundesverband der Deutschen Industrie, dem Digitalverband Bitkom und der IG Metall, sieht sich jedoch Kritik ausgesetzt - auch seitens der IT-Sicherheitsexperten der PSW Group. Insbesondere die Tatsache, dass mit Microsoft, Amazon und Google US-Giganten an Gaia-X beteiligt sind, sieht Geschäftsführerin Patrycja Schrenk kritisch und gibt zu bedenken: "So könnten die europäischen Werte, die mit Gaia-X eigentlich hochgehalten werden sollten, tief fallen. Wenn Hyperscaler dieser Art beteiligt sind, können kaum europäische Standards geschaffen und etabliert werden."

  • PKI in einem as-a-Service-Angebot nutzen

    Immer mehr Unternehmen kehren kostenintensiven On-Premises-PKI-Systemen den Rücken und setzen stattdessen auf leicht skalierbare und flexible Cloud-Lösungen. HID Global, weltweit führender Anbieter von vertrauenswürdigen Identitätslösungen, erklärt die Vorteile Cloud-basierter PKI-Lösungen. Eine Public Key Infrastructure (PKI) ermöglicht die verschlüsselte Übertragung von Informationen auf der Basis von öffentlichen und privaten Schlüsseln. Mit einer solchen Infrastruktur kann jedes Unternehmen Zugriffe überwachen oder Hackerangriffe unterbinden. Für die PKI-Implementierung gibt es prinzipiell zwei Möglichkeiten.

  • Google-Infrastruktur als Täterumfeld

    Fast 60 Millionen Angriffs-Mails via Microsoft 365 und 90 Millionen via Google - das ist die erschreckende Bilanz, die der US-Cybersecurity-Spezialist Proofpoint jetzt nach einer Analyse der Cyberbedrohungen für 2020 veröffentlicht hat. Cyberkriminelle nutzen ganz offensichtlich die umfangreiche Funktionalität und nahezu grenzenlose Skalierbarkeit von Diensten wie Microsoft 365, Azure, OneDrive, SharePoint, G-Suite und Firebase Storage um digitale Angriffe auszuführen. Mehr als ein Viertel davon (27 Prozent) liefen über den Google-Mail-Service Gmail. Da es sich hier ausschließlich um eine Analyse von Angriffen handelt, die auf Kunden von Proofpoint abzielten, ist der tatsächliche Wert kaum zu ermitteln. Der Trend ist jedoch ungebrochen, im ersten Quartal 2021 wurden bereits mittels Microsoft 365 sieben Millionen gefährliche Nachrichten verbreitet und im Falle weiterer 45 Millionen nutzten die Täter die Google-Infrastruktur. Das Volumen gefährlicher Nachrichten, die mittels dieser in der Wahrnehmung vieler doch sehr vertrauenswürdigen Cloud-Dienste versendet wurden, übertraf dabei sogar das aller Botnets im Jahr 2020. Da die Angreifer hierzu eben auch Domains wie "outlook.com" und "sharepoint.com" nutzen, die bisher häufig als seriöse Quelle galten, wird die Erkennung von Attacken immer schwieriger.

  • Der Mainframe im neuen Normal

    Auch im Jahr 2021 stehen Mainframes im Zentrum des Geschehens. Trotz technologischer Fortschritte bleiben sie geschäftskritisch, denn sie überzeugen mit Leistungsfähigkeit und Zuverlässigkeit. Im Rahmen der fortschreitenden Transformation, die auch vor dem Mainframe nicht Halt macht, müssen Unternehmen nun dessen Sicherheit in den Fokus rücken. Que Mangus, Product Marketing Manager for Application Modernization and Connectivity bei Micro Focus, gibt tiefere Einblicke in die Bedeutung des Mainframes. Mainframes bleiben das Herzstück von Enterprise Computing. Laut Zahlen von IBM laufen 55 Prozent aller Enterprise-Application-Transaktionen auf dem Mainframe. Zusätzlich befinden sich, laut IBM, 80 Prozent der weltweiten Unternehmensdaten auf Mainframe-Computing-Plattformen oder stammen von diesen. Oftmals geht es dabei um sensible Informationen, wie etwa personenbezogene Daten. Diese gilt es, gemäß der im Mai 2018 eingeführten Datenschutzgrundverordnung (DSGVO), zu schützen.

  • MSPs müssen hybride Cloud-Lösungen bereitstellen

    Eines der heißesten Themen im Netzwerkbereich ist das Secure Access Service Edge (SASE)-Modell, ein von Gartner konzipiertes architektonisches Framework, das eine Roadmap zur Transformation von Legacy-WAN hin zu einem Cloud-verwalteten Edge beschreibt: SASE kombiniert WAN-Edge-Funktionen mit aus der Cloud bereitgestellten Sicherheitsfunktionen. Gute MSP-Servicebereitstellungsmodelle sind bereits auf die maßgeschneiderte Natur von integriertem SASE abgestimmt. MSPs können so Managed Services nach Bedarf definieren, verfeinern und bereitstellen, was Kosteneffizienz und Skalierbarkeit ermöglicht. Viele werden jedoch ihre siloartigen Organisationsstrukturen umgestalten müssen.

  • Cloud ist stark auf Kernprozesse fokussiert

    Cloud-Lösungen sind nichts Neues, bei SAP werden diese immerhin seitmehreren Jahren angeboten. Doch so wirklich wollten sich deutsche Unternehmen bisher nicht von ihren "On-Premise" Installationen verabschieden. Die vorherrschende Meinung: Cloud Computing-Lösungen können einfach nicht leisten was eine firmeneigene Software schafft. Während dies zu Beginn in Teilbereichen auch stimmte, offenbart die Cloud zunehmend ihre Stärken. Vor allem der "immer und überall" Zugang für Mitarbeiter, Partner und Dienstleister sowie die schnelle und effiziente Implementierung hat im vergangenen Pandemie-Jahr zunehmend an Bedeutung gewonnen. Aber auch die stetige Weiterentwicklung in Richtung künstliche Intelligenz und Automatisierung sprechen immer mehr für die Cloud. Für Unternehmen gibt es derzeit reichlich gute Gründe um im Rahmen ihrer Digitalisierungsstrategie über einen Umstieg von internen Softwarelösungen über Cloud-Lösungen nachzudenken. Für Geschäftsführung und Aktionäre steht dabei meist die Kostenminimierung im Vordergrund. Denn durch Cloud-Hosting lässt sich die Softwarestruktur effizienter betreiben und Veränderungen des Geschäftsmodells können direkt skaliert werden. Während diese Flexibilität die letzten Jahre keinen großen Stellenwert hatte, ist sie aktuell zu einem Haupttreiber für Cloud-Lösungen geworden.

  • Open Banking - Bankgeschäfte überall

    Moderne Cloud-Technologien bieten ein enormes Potential für Finanzunternehmen. Das Beraterhaus Deloitte geht davon aus, dass im Jahr 2030 Cloud Banking eine zentrale Rolle in der Finanzbranche einnimmt. Der Umstieg auf eine Cloud-Lösung bringt jedoch auch Herausforderungen mit sich. Verantwortliche müssen dabei zahlreiche Datenquellen mit unterschiedlichen Formaten und Protokollen kombinieren. Zusätzlich setzen sich die Datenquellen aus verschiedenen Cloud-Diensten von unterschiedlichen Anbietern, bestehenden On-Premises-Quellen und Software-as-a-Service (SaaS)-Anwendungen zusammen. Mit Datenvirtualisierung können Daten reibungslos und ohne Downtime in die Cloud migriert werden. So wird der tägliche Betrieb nicht beeinträchtigt und das Risiko für das Unternehmen maßgeblich minimiert. Die Technologie bietet einen einheitlichen Layer, der alle Daten integriert und zugänglich macht. Da die Datenquellen von den Datenkonsumenten und Analyse-Tools entkoppelt sind, merken die Daten-Nutzer nichts davon, wenn die IT-Abteilung die Daten "im Hintergrund" in die Cloud migriert.