- Anzeige -


Sie sind hier: Startseite » Markt » Tipps und Hinweise

Unternehmen brauchen eine solide Datenkultur


Schlüsselrolle von Daten und wie Unternehmen sie besser nutzen können
Datenanalyse – Die Einstellung macht den Unterschied

- Anzeigen -





Peter Stadler, Acting VP Central Europe bei Teradata

Vom Einkauf über die interne Logistik bis hin zum Marketing oder in der Produktion – alle Geschäftsbereiche stehen vor der großen Herausforderung, immer größere komplexe Datenmengen zu sammeln und diese auf sinnvolle Weise zu verwerten. Datenanalyse wird in den Köpfen vieler CIOs so zur aufwendigen Investition, deren Früchte man erst spät ernten kann. Dabei verkennen viele Unternehmen, dass Daten ihnen nicht nur helfen können, Prozesse signifikant zu vereinfachen und gewinnbringender zu arbeiten, sondern auch ihre Kunden besser zu verstehen – ein Faktor, der nie so erfolgsentscheidend war wie heute.

Peter Stadler, Acting VP Central Europe bei Teradata, ist überzeugt, dass die Fähigkeit, Daten für Unternehmensentscheidungen auszuwerten, ein Schlüssel zum Erfolg von deutschen und österreichischen Unternehmen ist. Im Folgenden erklärt er, wie Unternehmen beginnen können, echten Mehrwert aus ihren Daten zu schöpfen, um auch in Zukunft zu bestehen:

Unwissenheit ist die Wurzel des Problems
Noch immer sind sich viele Unternehmen nicht darüber bewusst, welche Möglichkeiten ihnen eine zielführende Datenanalyse bieten kann. Jedes Mal, wenn ein unpassender Rabattgutschein in einem Paket mitgeliefert wird oder Menschen, die kein Auto besitzen, Online-Anzeigen für Kfz-Versicherungen sehen, ist eine Chance verstrichen, ein Geschäft zu machen. Oft sind es unzureichende Analysen, die diese fehlplatzierten Werbeaktionen verursachen.

Doch das Potenzial der Datenanalyse geht weit über das Marketing hinaus. Ein gutes und sehr einfach verständliches Beispiel ist ein Becher Joghurt im Supermarkt. Wird dieser Becher nicht verkauft, muss er entsorgt werden und der Supermarkt macht einen Verlust. Doch vielleicht ist genau dieser Joghurt in einem anderen Stadtteil sehr gefragt oder sogar ausverkauft. In diesem Fall fährt die Supermarktkette einen doppelten Verlust ein, da sie einerseits ein Produkt nicht verkaufen konnte und in einem anderen Markt die Chance auf einen Verkauf verpasst hat. Mithilfe moderner Datenanalyse kann genau nachvollzogen werden, wie der Verkauf bestimmter Produkte in den einzelnen Märkten verläuft. Der in Markt A verschmähte Joghurt kann also früh genug in Markt B umgelagert werden – und das Sortiment der beiden Märkte in Zukunft besser an das Publikum angepasst werden.

Verständnis über Kunden wird zum Schlüssel für Erfolg
Ein viel größerer Faux-Pas ist es aber, die Möglichkeiten gar nicht zu kennen, die Datenanalysen bieten. Wenn wir etwa noch einmal auf unser Beispiel des Supermarktes zurückgehen, ist eine zentrale Frage, die sich alle Entscheider im stationären Handel stellen sollten: "Wer ist wann und warum in meinem Laden?" Nur wer diese Frage beantworten kann, hat die Möglichkeit, wirklich auf seine Kunden einzugehen und sie auf lange Sicht auch zu halten.

Internationale Player wie Amazon haben die Wichtigkeit dieser Daten schnell erkannt und entsprechend gehandelt. Nur deshalb konnten sie die Position auf dem Weltmarkt erlangen, die sie heute innehaben. Auch für Unternehmen im Einzelhandel gilt diese Devise: Wer gegen seine Konkurrenten bestehen will, muss sich mit einer klaren Markenposition und Botschaft auf dem Markt platzieren. Der Kunde muss klar verstehen, wer er ist und wofür er steht. Doch dazu muss das Unternehmen den Kunden erst einmal verstehen.
All das funktioniert nur auf einer Grundlage von soliden Daten und exakten Analysen. Dabei geht es längst nicht mehr um die Einteilung der Kunden in eine bestimmte Anzahl von Kundensegmenten, die unterschiedlich bedient werden. Vielmehr ist eine echte Personalisierung das Ziel, sodass jeder Kunde mit seinen Bedürfnissen ein eigenes Segment bildet und ganz individuell angesprochen werden kann.

Einen Einstieg finden – mit kleinen, klar umrissenen Projekten
Doch wie kommt man an diesen Punkt? Zuallererst brauchen Unternehmen eine solide Datenkultur. Das Bewusstsein für die Wichtigkeit von strategischer Datenanalyse muss im gesamten Unternehmen vorhanden sein – angeführt von der obersten Führungsebene. Nur dann ist der Wandel zu einem datengetriebenen Unternehmen von Erfolg gekrönt.

Das heißt aber nicht, dass ein Unternehmen in einem Herkulesakt alle Geschäftsprozesse binnen kürzester Zeit umstellen muss. Ein guter Anfang ist ein abgegrenztes Projekt mit klaren Zielen und KPIs. So können Unternehmen Einblicke gewinnen, welche Analysen ihnen am meisten Mehrwert bringen und welche Bereiche wichtig sind, um weitere Analysemodelle einzuführen.

Im Einzelhandel bietet sich zum Beispiel ein sorgfältiges Monitoring und Analysieren der Supply Chain an, um Engpässe im Sortiment bei einzelnen Märkten einerseits und Müll durch überflüssige Produkte andererseits zu vermeiden. Gerade in den vergangenen Monaten haben wir deutlich gesehen, wie ungewohnte Situationen wie ein pandemiebedingter Lockdown altbewährte Systeme auf den Kopf gestellt und Versorgungsprobleme mit sich gebracht haben. Datenanalyse kann hier helfen, schnell einen Überblick über die Situation in einzelnen Filialen zu erhalten und gegenzusteuern.

Perfektion ist nicht die Lösung
Analysemodelle sind komplex – oder nicht wirksam. Das ist ein Irrglaube, der viele Unternehmen davor zurückschrecken lässt, mehr auf Datenanalyse zu setzen. Doch mit diesem Argument machen es sich Zweifler allzu leicht. Kein Modell der Datenanalyse ist je perfekt. Und das muss es auch nicht sein. Modelle sind Hilfen und Annäherungen, die Entwicklungen und Trends anzeigen.

Wollte man die Realität 100prozentig in einem Modell abbilden, so würde es in der Tat viel zu viele Variable enthalten müssen und dadurch impraktikabel werden. Die Lösung ist die 80/20-Regel: 80 Prozent der Erfolge beruhen auf 20 Prozent des Einsatzes. Wer Datenanalyse-Projekte also strategisch angeht und im Vorfeld klärt, welche 20 Prozent entscheidend sind, um das Geschäft einen entscheidenden Schritt weiterzubringen, kann ein effizientes Modell erstellen, das sich auf die wichtigsten Parameter konzentriert. Auch ein unperfektes Modell kann schon einen großen Mehrwert bieten, wenn es die Mehrheit der Bedürfnisse abdeckt und dem Zweck dient.

Fazit
Auch wenn die Herausforderung für viele deutsche und österreichische Unternehmen noch groß ist – wer den ersten Schritt macht und zielgerichtete und effiziente Datenanalyse einführt, kann Entscheidungen auf einer soliden Grundlage treffen. Das steigert nicht nur die Qualität der eigenen Arbeit, sondern bringt Unternehmen auch einen entscheidenden Wettbewerbsvorteil. Die wichtigste Veränderung, die Unternehmen dafür vollziehen müssen, ist die Einstellung, Daten als entscheidendes und wertvolles Asset zu verstehen, deren Analyse entscheidend für ihr zukünftiges Bestehen sein kann.
(Teradata: ra)

eingetragen: 21.12.20
Newsletterlauf: 16.03.21

Teradata: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Tipps und Hinweise

  • Gemacht für hybride Multi-Cloud-Infrastrukturen

    Ausfall- und Stillstandzeiten in der IT sind teuer. Laut einer aktuellen ITIC-Studie kostet ein Ausfall pro Stunde zwischen 860.000 und 4,3 Millionen Euro - zuzüglich der Kosten für Rechtsberatung und eventueller Bußgelder. In derselben Studie bestätigten 91 Prozent der Unternehmen, dass ein einstündiger Ausfall eines unternehmenskritischen Servers oder einer Anwendung, allein aufgrund der Betriebsunterbrechung, der Produktivitätsverluste und des Wiederherstellungsaufwands, einen Schaden von mehr als 250.000 Euro verursacht. Derartige Ausfälle passieren nicht einfach so. Sie sind in einigen Fällen auf Katastrophen, beispielsweise Überflutungen, zurückzuführen. Die meisten jedoch sind Resultate von Cyberattacken. Der höchste Anteil an Sicherheitsverletzungen (20 Prozent) entsteht jedoch durch kompromittierte Anmeldedaten und verursacht durchschnittlich Schäden von 3,7 Millionen Euro je Vorfall. Diese hohen Kosten legen es Unternehmen nahe, das Thema Business Continuity in ihre Disaster-Recovery (DR)-Pläne einzubeziehen. Eine Möglichkeit, die hohen Schäden aufgrund von Ausfällen zu vermeiden, bietet die Business Continuity Cloud.

  • Tagging: Wichtigen Ratschlag für Cloud-Neulinge

    Wer regelmäßig Cloud Computing-Services nutzt, fragt sich gewiss von Zeit zu Zeit, warum die Rechnung in manchen Monaten höher ist als in anderen oder was es wohl kosten würde, eine bestimmte Anwendung in die Cloud zu verlagern. Um User gezielt dabei zu unterstützen, die volle Kostenkontrolle über ihre Cloud-Nutzung zu wahren, ohne an Leistung einzubüßen, hat Oracle einen Leitfaden aus fünf Punkten zusammengestellt. Vom Finanzexperten mit Budgetverantwortung über den Entscheidungsträger, der ein neues Projekt evaluiert, bis hin zum DevOps-Ingenieur, der das Funktionsdesign von IT-Anwendungen modigfiziert - Kostenmanagement in der Cloud ist von entscheidender Bedeutung für den Erfolg oder Misserfolg eines Unternehmens. Die Möglichkeiten, die die Cloud bereithält, sind schier grenzenlos. Für Anwender macht sich daher ein systematischer Kurzüberblick bezahlt.

  • Kostenfallen im komplexen Projektmanagement

    Bei Cloud-Strategien liegen die Tücken im Detail: Die variantenreichen Abrechnungsmodalitäten von Cloud-Providern und technische Fallstricke der eigenen IT-Infrastrukturen können Kostenvorteile schnell zunichte machen - es sei denn, so die Projekterfahrung von Apptio, Unternehmen wappnen sich mit Umsicht und Analysen gegen böse Überraschungen. Mit den laufenden Digitalisierungsmaßnahmen haben Unternehmen bereits ein gutes Bewusstsein dafür entwickelt, dass sich die IT-Budgetplanungen und -Kostenstrukturen mit Cloud Computing-Umgebungen erheblich verändern. Doch es lauern kritische Kostenfallen, die im komplexen Projektmanagement einer Cloud-Migration schnell übersehen werden können. Ein Thema, das Unternehmen auch im Cloud-Betrieb begleitet, wie eine aktuelle Studie von Harvard Business Review zeigt. Denn demnach ist zwar der Mehrwert, der aus dem Einsatz von Technologie resultiert, von höchster Bedeutung bei Budgetplanungen. Allerdings vertrauennur 62 Prozent den dazu verfügbaren Informationen. Die Hälfte der Befragten gibt an, dass sie den durch Technologieinvestitionen generierten Mehrwert nur ad hoc (31 Prozent) oder gar nicht (20 Prozent) messen, 16 Prozent tun dies nur zu bestimmten Projektmeilensteinen. Aus derErfahrung mit Projekten zur Einführung von IT-Finanzmanagement hat Apptio die sechs wichtigsten Bereiche identifiziert, die Budgets einer Cloud-Migration sprengen können.

  • Aufstieg in die Cloud

    Am 7. November 2020 bemerkte der Geschäftsführer eines mittelständischen Bremer Unternehmens, das im An- und Verkauf von Merchandising-Artikeln in Deutschland und Frankreich aktiv ist, einige Unstimmigkeiten im unternehmensinternen Netzwerk. Zum Großteil unterlagen die Serverdaten einer undurchdringbaren Verschlüsselung. Über Nacht startete eine in IT-Kreisen bekannte Gruppe von Hackern unter dem Namen REvil diesen Ransomware-Angriff, der viele Prozesse des Betriebes für mehrere Wochen lahmlegte. Etwa 90 Prozent der Daten verschlüsselten die Hacker und stellten für die Herausgabe des Generalschlüssels, der zur Freigabe jeglicher Dateien befähigt, eine hohe monetäre Forderung von rund 300.000 Euro - ein erschreckendes Szenario, das viele weitere kleine und mittlere Unternehmen (KMU) in Deutschland und weltweit betrifft. In den vergangenen Jahren entwickelte sich ein zunehmend beunruhigender Anstieg an Cyberkriminalität. Lag die Zahl der Fälle in Deutschland 2016 noch bei rund 82.000 Fällen, so verzeichnete das Bundeskriminalamt für das Jahr 2020 bereits über 108.000 Angriffe.

  • Fokus auf Managed Service Provider

    Ransomware-Angriffe nehmen weiterhin zu und stellen eine enorme Bedrohung für zahlreiche Branchen und Einrichtungen dar - von öffentlichen Verwaltungen über Finanzinstitute bis hin zur kritischen Infrastruktur. Hierzu hat auch wesentlich die Zunahme der Remote Work im letzten Jahr beigetragen, in deren Folge die Angriffe um 148 Prozent gestiegen sind. Dieser Trend setzt sich mit einer weiterhin steigenden Zahl der Cyberangriffe und der von Cyberkriminellen geforderten Lösegeldhöhe fort. Die Spezialisten des Incident Response Teams von Varonis Systems beobachten dabei folgende aktuelle Trends: Ransomware-Banden haben ihren Fokus auf Managed Service Provider (MSP) verlagert, also auf Plattformen, die viele Kunden gleichzeitig bedienen. Auf diese Weise können sie bei einem erfolgreichen Angriff auf einen Dienstleister auch dessen Kunden kompromittieren. Die meisten Attacken auf MSPs erfolgen dabei über schlecht gesicherte Remote-Access-Tools.

  • Public-Cloud-Workloads auf Linux

    Trend Micro veröffentlichte ihren Bericht über den aktuellen Sicherheitsstatus von Linux-Systemen in der ersten Hälfte des Jahres 2021. Die Studie gewährt einen detaillierten Einblick, wie Linux-Betriebssysteme aufgrund der fortschreitenden Cloud-Transformation verstärkt ins Visier von Angreifern geraten. Darüber hinaus werden weitere verbreitete Bedrohungen in der Linux-Umgebung beleuchtet. Im Jahr 2017 liefen bereits 90 Prozent der Public-Cloud-Workloads auf Linux. Laut Gartner "wirft das steigende Interesse an Cloud-nativen Architekturen die Frage nach dem zukünftigen Virtualisierungsbedarf von Servern in Rechenzentren auf. Am häufigsten wird eine Linux-OS-basierte Virtualisierung genutzt, welche die Grundlage für Container bildet." Linux unterstützt Unternehmen bei der Nutzung Cloud-basierter Umgebungen und bei der digitalen Transformation. Viele moderne IoT-Geräte, Cloud-Anwendungen und -Technologien laufen auf einer Linux-Variante, die als wichtiger Bestandteil moderner Infrastrukturen geschützt werden muss.

  • Kosteneinsparungen in der Cloud

    Wer regelmäßig Cloud Computing-Services nutzt, fragt sich gewiss von Zeit zu Zeit, warum die Rechnung in manchen Monaten höher ist als in anderen oder was es wohl kosten würde, eine bestimmte Anwendung in die Cloud zu verlagern. Um User gezielt dabei zu unterstützen, die volle Kostenkontrolle über ihre Cloud-Nutzung zu wahren, ohne an Leistung einzubüßen, hat Oracle einen Leitfaden aus fünf Punkten zusammengestellt. Vom Finanzexperten mit Budgetverantwortung über den Entscheidungsträger, der ein neues Projekt evaluiert, bis hin zum DevOps-Ingenieur, der das Funktionsdesign von IT-Anwendungen modigfiziert - Kostenmanagement in der Cloud ist von entscheidender Bedeutung für den Erfolg oder Misserfolg eines Unternehmens. Die Möglichkeiten, die die Cloud bereithält, sind schier grenzenlos. Für Anwender macht sich daher ein systematischer Kurzüberblick bezahlt. Tagging ist einer der wichtigsten Ratschläge für Cloud-Neulinge. Selbst wenn eine Umgebung zu Beginn nicht gut strukturiert ist, können User durch Tags, insbesondere obligatorische, vordefinierte Tags und Tags zur Kostenverfolgung, ihre Ressourcen klassifizieren und davon ausgehend Such- und Massenaktionen durchführen. Tags sind am besten zu verstehen als eine beliebige Textfolge, die Anwender einer Ressource zuweisen und die den Ressourcentyp, die Umgebung - Produktion, Staging oder Test -, den Projektnamen, die Rollen, die Business Unit, die Abteilung, die Kostenstelle und so weiter beschreibt.

  • CSPM-Tools eine Erleichterung

    Mit zunehmender Mobilität der Daten und dem Ausbau von Multi-Cloud-Umgebungen kommen einige Herausforderungen auf IT-Teams zu. Es ist schwer, einheitliche Richtlinien umzusetzen und den gesetzlichen Anforderungen gerecht zu werden. Dazu kommen Einschränkungen aufgrund zu niedrig angesetzter Budgets und dem Fachkräftemangel in der Branche. Die Bedrohungslandschaft bleibt derweil agil und passt sich stetig an. Welche Fehler werden am häufigsten begangen und wie sollte man damit umgehen? Im Vergleich zu On-Premise-Umgebungen mangelt es bei der Verlagerung in die Cloud erheblich an Transparenz im Bereich Sicherheit und der Einhaltung von Vorschriften. Öffentliche Cloud Computing-Umgebungen erfordern die Fähigkeit, die in einem anderen physischen Raum befindlichen Ressourcen zu sehen und zu kontrollieren. Im Modell der geteilten Sicherheitsverantwortung ist der Kunde der öffentlichen Cloud für die Sicherung seiner Daten und Daten-Ströme verantwortlich. Die Komplexität wird, durch die sich ständig ändernden Cloud-Ressourcen, noch erhöht. Native Cloud-Technologien, beispielsweise serverlose Anwendungen, bringen neue Herausforderungen mit sich, wenn sie an Umfang zunehmen. Insbesondere serverlose Anwendungen bestehen oft aus Hunderten von Funktionen, was die Verwaltung all dieser Daten und der Dienste sehr unhandlich macht.

  • Tipps zur Sicherung von Cloud-Umgebungen

    Das Identity and Access Management (IAM) wird in der Cloud oft noch stiefmütterlich behandelt, warnen die Sicherheitsspezialisten von Radware. Und dies, obwohl nach einer eigenen Studie bereits 70 Prozent aller Produktivanwendungen in öffentlichen Clouds betrieben werden. Das bedeutet, dass Cloud-Sicherheit zunehmend zum Synonym für Cybersicherheit wird. Laut Gartner werden bis 2023 drei Viertel aller Sicherheitsmängel in der Cloud auf eine unzureichende Verwaltung von Identitäten, Zugriffen und Berechtigungen zurückzuführen sein. In der öffentlichen Cloud gehostete Workloads sind jetzt per Definition remote. Der gesamte Zugriff erfolgt über eine Remote-Verbindung unter Verwendung von Mechanismen und APIs, die vom Hosting-Anbieter der öffentlichen Cloud bereitgestellt werden. Administratoren haben keine physische Kontrolle mehr über ihre Ressourcen, und der gesamte Zugriff auf ihre Ressourcen erfolgt aus der Ferne. Hacker, böswillige Akteure und andere nicht autorisierte Dritte können jedoch grundsätzlich über dieselben standardisierten Protokolle, APIs und Zugriffsmethoden auf dieselben Ressourcen zugreifen. Der Schutz vor Bedrohungen in der öffentlichen Cloud beginnt daher laut Radware mit der Sicherung von Berechtigungen und dem Identitäts- und Zugriffsmanagement.

  • Vorteile der Hybrid Cloud für E-Commerce

    Die Covid-19-Pandemie hat dem bereits darbenden Einzelhandel stark zugesetzt und noch mehr Einkäufe in die Onlineshops verlegt. Es gilt als sicher, dass sich diese Entwicklung fortsetzen wird und sich die Einkaufsgewohnheiten vieler Menschen weiter in Richtung Online verschieben werden. Um zu überleben, müssen stationäre Händler ihre Angebote anpassen - und in E-Commerce-Infrastruktur investieren. Mehr Onlineshop zu wagen, wird manchen Händler vor große Herausforderungen stellen, hält aber gleichsam auch Chancen bereit, für die Zukunft gerüstet zu sein. Anbietern jeder Größe eröffnet sich ein Weg, sich ein Stück vom Kuchen eines boomenden Marktes zu sichern. Dort tummeln sich allerdings - neben Platzhirschen wie Amazon und anderen Online-Größen - Tausende anderer Händler. Um in diesem Habitat mit über Jahrzehnten gewachsenen und durch Milliarden von Kaufprozessen gestählten Webstores bestehen zu können, müssten sie eine durchaus respektable Investitionsleistung in ihren Onlineauftritt aufbringen. Tun sie das nicht, stünde unter Umständen das Überleben des eigenen Unternehmens auf dem Spiel.