- Anzeige -


Sie sind hier: Startseite » Markt » Studien

CRM und Data-Mining-Werkzeuge


"Data Mining Studie 2012": Kundenbindungsmanagement durch Einsatz von Prognosemodellen
Analytisches CRM: Kundenreaktivierung als wesentlichen Bestandteil von Customer Relationship Analytics


(09.07.12) - In Marketing und Vertrieb spielt das Customer Relationship Management (CRM) eine Schlüsselrolle: Hier wird entschieden, welche bestehenden Kunden in welcher Form betreut werden, welche potenziellen Neukunden wie angesprochen und welche ehemaligen Kunden zurückgewonnen werden sollen. Die Beantwortung dieser Fragen ist von strategischer Bedeutung und entscheidet über den Erfolg des gesamten Unternehmens. Die diesjährige Data Mining Studie des BI-Analysten- und Beraterhauses mayato legt den Schwerpunkt auf die Kundenreaktivierung als wesentlichen Bestandteil von Customer Relationship Analytics.

Dazu traten vier Data-Mining-Produkte gegeneinander an: Der "SAS Enterprise Miner 7.1", der "Statistica Data Miner 10" von StatSoft, der "IBM SPSS Modeler 14.2" und das "SAP BW "7 (Data Mining Workbench). Die Studie ist kostenpflichtig bei mayato erhältlich.

Potenziale erkennen und gezielt handeln
Der Test wurde anhand eines praxisnahen Analyseszenarios durchgeführt: Ein großer Online-Versandhändler möchte Erstbesteller, die nach einer definierten Zeitspanne keine Folgebestellung tätigen, durch bestimmte Aktionen zu einem Wiederkauf anregen. Dabei sollen nur die Kunden einen Einkaufsgutschein erhalten, bei denen mit hoher Wahrscheinlichkeit davon auszugehen ist, dass sie ohne diesen Anreiz keine weitere Bestellung getätigt hätten. Diese Kunden galt es auf Basis der vorliegenden Kundenhistorie mithilfe eines Prognosemodells vorherzusagen. Dazu wurden neben etablierten Methoden wie Entscheidungsbäumen auch neuere Prognoseverfahren wie Support Vector Machines (SVM) eingesetzt und für jedes getestete Tool separat auf Praxistauglichkeit und Prognosequalität geprüft. Unter Einbezug der errechneten Prognosen sollen die abwanderungsgefährdeten Kunden gezielt zurückgewonnen werden.

Die Bewertung der Tools stützt sich auf eine breite Anzahl an Einzelkriterien. Sie decken sowohl Funktionalitätsaspekte (Funktionsumfang in den Kategorien Datenvorverarbeitung, Analyseverfahren und Parametrisierung, Ergebnisvisualisierung, Gesamteffizienz) als auch die Benutzerfreundlichkeit (Stabilität, Ausführungsgeschwindigkeit, Dokumentation, Bedienung) ab.

Im Endergebnis zeigen sich starke Unterschiede insbesondere im Bedienkomfort, bei der Funktionalität sowie bei den Möglichkeiten der Ergebnisauswertung.

Testfeld und Praxis
In der neuen Studie werden erstmals die drei marktführenden Suiten von SAS, StatSoft und IBM SPSS miteinander verglichen. Um zu beurteilen, wie sich ein klassisches BI-Werkzeug im Vergleich zu den etablierten Data-Mining-Suiten schlägt, wurde die SAP BW Data Mining Workbench mit ins Testfeld aufgenommen.

Bereits früh im Testablauf werden Stärken und Schwächen der jeweiligen Tools sichtbar: Die besondere Stärke von SAS liegt in der Einbettung des Enterprise Miner in eine leistungsfähige BI-Gesamtarchitektur, die neben der Analyse flexible Möglichkeiten der Datenhaltung oder weitreichende ETL-Funktionen bietet.

IBM SPSS ist es gelungen, hohe Funktionalität in eine moderne, intuitive Oberfläche zu verpacken: Der Modeler bietet durch sein logisches Bedienkonzept und zahlreiche praktische Detaillösungen die beste Ergonomie im Testfeld.

StatSoft punktet mit einer sehr breiten Funktionsvielfalt: Der Data Miner enthält als einziges Tool im Test zusätzlich zu den gängigen Data-Mining-Verfahren stets das vollständige StatSoft-Statistikmodul. Dies schließt z. B. mächtige Datenvorverarbeitungsmöglichkeiten, eine breite Palette an statistischen Testverfahren sowie eine große Anzahl an frei konfigurierbaren Grafiken ein. Bei komplexen Data-Mining-Szenarien erleichtern viele dieser Funktionalitäten die tägliche Arbeit oder ermöglichen überhaupt erst eine umfassende Analyse.

Mit bereits deutlichem Abstand folgt das SAP BW mit der Data Mining Workbench: Ihr merkt man vor allem an der unübersichtlichen und wenig logisch aufgebauten Oberfläche an, dass sie seit mehreren Jahren keine substanziellen Aktualisierungen mehr erfahren hat. Hinzu kommen deutliche praktische Einschränkungen in der Funktionalität.

Bedienkonzepte und Weiterentwicklung
Die hohe Funktionsmächtigkeit und die vielfältigen Parametrisierungsmöglichkeiten der Suiten führen allerdings zu vergleichsweise langen Einarbeitungszeiten. Es wird zudem immer schwieriger, ein einziges Bedienkonzept für alle denkbaren Anwendergruppen bereit zu stellen. Als Konsequenz gehen manche Hersteller dazu über, mehrere Bedienoberflächen für unterschiedliche Nutzergruppen zur Verfügung zu stellen:

SAS bietet zusätzlich zur klassischen Modellbildung mit dem Rapid Predictive Modeler eine (in der aktuellen Version nochmals überarbeitete) einfache, separate Data-Mining-Umgebung mit sinnvoll begrenzten Parametrisierungsoptionen an. Hier konnten im Test bereits mit den Standardparametern in kurzer Zeit akzeptable Ergebnisse erzielt werden, die auf Wunsch manuell weiter verfeinert werden können.

StatSofts Beitrag zur Automatisierung des Prozesses liegt in alternativ angebotenen, vorgefertigten Data-Mining-Rezepten für Standard-Prognoseaufgaben. Hier kann der Nutzer ohne viel Aufwand eine Vielzahl an Vorhersagemodellen erzeugen.

IBM SPSS stellt unter anderem mit dem automatischen Klassifizierer eine vergleichbare Funktionalität bereit: Der Anwender kann in einem Dialog mehrere Prognosemodelle mit unterschiedlichen Verfahren und Parametereinstellungen automatisch berechnen und deren Ergebnisse vergleichen.

Darüber hinaus erweitern die Tool-Hersteller insbesondere die Komponenten und Module ihrer Produkte, die für einen schnellen Einstieg in Data-Mining-Analysen besonders wichtig sind. Zu den Erweiterungen gehören Neuentwicklungen und weitere Differenzierungen ihrer Bedienkonzepte, ausführliche Dokumentationen inklusive Online-Hilfen und praxisnaher Tutorials sowie innovative Ansätze zur Automatisierung des Data-Mining-Prozesses. (mayato: ra)

mayato: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Studien

  • Studie: Vertrauen in Cloud-Computing wächst

    McAfee veröffentlichte ihren dritten alljährlichen Cloud Computing-Report "Navigating a Cloudy Sky: Practical Guidance and the State of Cloud Security". Dieser befasst sich mit dem Zustand der Cloud Computing-Adoption in Unternehmen. Demnach nimmt das Vertrauen in die Cloud bei deutschen Unternehmen weiter zu. 96 Prozent haben inzwischen Cloud COmputing-Dienste im Einsatz, was einen leichten Anstieg im Vergleich zum letzten Jahr bedeutet (94 Prozent). Im Durchschnitt soll es nur noch 17 Monate dauern, bis die komplette Transformation zu einem rein Software-definierten Rechenzentrum abgeschlossen sei.

  • Argumente für künftige Cloud-Strategie

    Cloud-Migration ist eines der IT-Themen, die Unternehmen in den nächsten Jahren erheblich beschäftigen werden. Das geht aus der IDG-Studie "Cloud Migration 2018" hervor, die unter anderem von Freudenberg IT (FIT) unterstützt wurde. Die Marktforscher von IDG Research Services befragten dafür 332 IT-Entscheider aus dem C-Level- und IT-Bereich in Unternehmen aus Deutschland, Österreich und der Schweiz (DACH). Auf dieser Basis liefern sie nicht nur spannende Erkenntnisse rund um die Cloud-Migration, sondern auch einen umfassenden Blick auf den Status quo und die künftige Entwicklung der Cloud in der DACH-Region.

  • Investition in Industrie 4.0-Technologien

    Laut einer aktuellen Studie von Oracle investiert die Mehrheit der deutschen Fertigungsunternehmen (77 Prozent) bereits in Industrie 4.0-Technologien. Fast zwei Drittel (63 Prozent) davon sehen bisher jedoch noch keine oder nur geringe positive Auswirkungen auf ihre Geschäftsentwicklung. Erste ermutigende Ergebnisse zeigt die Studie bei Herstellern, die Industrie 4.0-Projekte für bessere Lieferanten- und Vertriebsbeziehungen nutzen. So hat etwa die Hälfte davon begonnen, direkt an Kunden zu verkaufen - ohne den Umweg über den Einzelhandel oder Vertriebspartner. Zudem geben 40 Prozent an, dass Industrie 4.0-Anwendungen ihnen dabei helfen, die Komplexität ihrer Beziehungen zu Distributoren zu reduzieren. Zwei Drittel haben bereits Lieferantendaten in ihre eigenen Business-Intelligence-Systeme integriert.

  • Cloud Computing und hybride IT

    SolarWinds hat die Ergebnisse ihrer alljährlichen Studie zur aktuellen Lage der Branche veröffentlicht. Die neue Studie befasst sich mit dem Zustand der aktuellen IT-Landschaft: IT-Experten priorisieren weiterhin Investitionen in Cloud Computing, da sie die Vorteile neuer Technologien wie der künstlichen Intelligenz (KI) und dem maschinellen Lernen (ML) nutzen möchten. Eine Gegenüberstellung dieser Ergebnisse mit denen anderer unabhängiger Untersuchungen deckt außerdem eine Schieflage zwischen den IT-Investitionsprioritäten der befragten Experten und denen ihrer Vorgesetzten auf.

  • Antwort auf den Multi-Cloud-Trend

    Der weltweite Markt für Public-Cloud-Services wird im Jahr 2018 um 21,4 Prozent wachsen und einen Umsatz von insgesamt 186,4 Milliarden US-Dollar erzielen, so eine aktuelle Prognose des IT-Research und Beratungsunternehmens Gartner. Im Vorjahr 2017 belief sich der Umsatz noch auf 153,5 Milliarden US-Dollar.

  • Thema: "Agiles Unternehmen"

    Die digitale Transformation steht auf der Prioritätenliste von Unternehmen ganz oben. Einen umfassenden Vergleich der Anbieter auf diesem Markt bietet der neue "ISG Provider Lens Germany 2018 - Digital Transformation Services & Solutions" des Beratungs- und IT-Marktforschungshauses ISG Information Services Group. Die Studie analysiert vier Marktsegmente: die Interaktion zwischen Unternehmen und Kunden (Customer Journey), Unterstützung von Fachabteilungen (Intelligent Business Solutions/Platforms-as-a-Service), Unterstützung von IT-Abteilungen (Intelligent Operations) sowie Service-Leistungen, die Innovationen fördern (Accelerated Innovation).

  • Collaboration-Services am Arbeitsplatz

    Unternehmen, die für ihre Mitarbeiter in digitale Technologien investieren, werden mit einer deutlichen Produktivitätssteigerung belohnt - das ist eines der Ergebnisse der von BT veröffentlichten Studie "People, Productivity and the Digital Workplace - 2018". Der Report basiert auf einer internationalen Befragung von 1.100 Führungskräften und 600 IT-Entscheidern in elf Ländern. Die überwiegende Mehrheit (neun von zehn) der Befragten ist Meinung, dass mobile Tools und Collaboration-Services die Produktivität am Arbeitsplatz verbessern - eine deutliche Steigerung gegenüber dem Jahr 2015, wo es noch sechs von zehn der Befragten waren. Die Studie arbeitet fünf konkrete Bausteine zur Steigerung der Produktivität der Mitarbeiter heraus: Ein besser vernetzter, Video-fähiger Arbeitsplatz; einfacheres Arbeiten und Zusammenarbeiten auch außerhalb des Büros; Unternehmens-Apps; Instant Messaging-Dienste sowie leistungsfähigere Endgeräte.

  • Einführung von Hybrid Clouds in Europa

    NTT Communications gab die Ergebnisse einer neuen Studie bekannt: Diese hat ermittelt, wie Hybrid Clouds wirklich in europäischen Unternehmen implementiert werden und gibt praktische Hinweise, wie Service Provider darauf reagieren sollten. Die paneuropäische Hybrid-Cloud-Studie wurde im Auftrag von NTT Com und Dell EMC von den Analysten von 451 Research in 14 europäischen Ländern durchgeführt. Zielgruppe waren 1.500 CIOs und IT-Leiter von Großunternehmen in den Schlüsselbranchen Finanz- und Versicherungswesen, Fertigung, Einzelhandel, Professional Services, Distribution sowie Logistik. Der Umfrage zufolge verfügen bereits zwei Drittel der Befragten über eine Strategie oder ein Pilotprogramm für die Hybrid Cloud.

  • Public Cloud differenziert sich weiter aus

    In Deutschland nutzen immer mehr Unternehmen die Public Cloud. Gemäß der Studie "ISG Provider Lens Germany 2018" geben sie in diesem Jahr rund 17 Milliarden Euro dafür aus. Sie möchten damit vor allem möglichst viele Daten analysieren, um daraus Geschäftsentscheidungen abzuleiten. Dabei sehen die Rackspace-Experten für die Weiterentwicklung der Public Cloud drei entscheidende Entwicklungen: Die großen Cloud Computing-Plattformen werden in Bezug auf Performance immer ähnlicher, doch sie unterscheiden sich in den Funktionen. Zum Beispiel zeichnet sich die Google Cloud Platform in den Bereichen Datenspeicherung und Netzwerke aus, Microsoft Azure durch seine Business-Prozesse. Die Stärken von AWS liegen bei Serverless Computing und zukunftsträchtigen Technologien wie Maschinelles Lernen und Künstliche Intelligenz.

  • Auslöser für Investitionen in die Digitalisierung

    Sind Versicherungen tatsächlich digitale Nachzügler, wie es der Branche im Zusammenhang mit der Digitalisierung oftmals unterstellt wird? Mitnichten, sagt eine aktuelle Studie des Marktforschungs- und Beratungsunternehmens Lünendonk & Hossenfelder, die unter anderem dieser Frage auf Basis einer umfangreichen neutralen Befragung nachgegangen ist. Vielmehr befindet sich die Versicherungsbranche mitten in einem fundamentalen Umbruch und setzt sich sehr intensiv mit der Digitalisierung auseinander. Neue Technologien, wie künstliche Intelligenz, Big Data, Cloud, IoT und neue Konsumgewohnheiten zwingen die Unternehmen, bestehende Strategien zu überdenken und neue Wege einzuschlagen.