Sie sind hier: Startseite » Markt » Studien

CRM und Data-Mining-Werkzeuge


"Data Mining Studie 2012": Kundenbindungsmanagement durch Einsatz von Prognosemodellen
Analytisches CRM: Kundenreaktivierung als wesentlichen Bestandteil von Customer Relationship Analytics


(09.07.12) - In Marketing und Vertrieb spielt das Customer Relationship Management (CRM) eine Schlüsselrolle: Hier wird entschieden, welche bestehenden Kunden in welcher Form betreut werden, welche potenziellen Neukunden wie angesprochen und welche ehemaligen Kunden zurückgewonnen werden sollen. Die Beantwortung dieser Fragen ist von strategischer Bedeutung und entscheidet über den Erfolg des gesamten Unternehmens. Die diesjährige Data Mining Studie des BI-Analysten- und Beraterhauses mayato legt den Schwerpunkt auf die Kundenreaktivierung als wesentlichen Bestandteil von Customer Relationship Analytics.

Dazu traten vier Data-Mining-Produkte gegeneinander an: Der "SAS Enterprise Miner 7.1", der "Statistica Data Miner 10" von StatSoft, der "IBM SPSS Modeler 14.2" und das "SAP BW "7 (Data Mining Workbench). Die Studie ist kostenpflichtig bei mayato erhältlich.

Potenziale erkennen und gezielt handeln
Der Test wurde anhand eines praxisnahen Analyseszenarios durchgeführt: Ein großer Online-Versandhändler möchte Erstbesteller, die nach einer definierten Zeitspanne keine Folgebestellung tätigen, durch bestimmte Aktionen zu einem Wiederkauf anregen. Dabei sollen nur die Kunden einen Einkaufsgutschein erhalten, bei denen mit hoher Wahrscheinlichkeit davon auszugehen ist, dass sie ohne diesen Anreiz keine weitere Bestellung getätigt hätten. Diese Kunden galt es auf Basis der vorliegenden Kundenhistorie mithilfe eines Prognosemodells vorherzusagen. Dazu wurden neben etablierten Methoden wie Entscheidungsbäumen auch neuere Prognoseverfahren wie Support Vector Machines (SVM) eingesetzt und für jedes getestete Tool separat auf Praxistauglichkeit und Prognosequalität geprüft. Unter Einbezug der errechneten Prognosen sollen die abwanderungsgefährdeten Kunden gezielt zurückgewonnen werden.

Die Bewertung der Tools stützt sich auf eine breite Anzahl an Einzelkriterien. Sie decken sowohl Funktionalitätsaspekte (Funktionsumfang in den Kategorien Datenvorverarbeitung, Analyseverfahren und Parametrisierung, Ergebnisvisualisierung, Gesamteffizienz) als auch die Benutzerfreundlichkeit (Stabilität, Ausführungsgeschwindigkeit, Dokumentation, Bedienung) ab.

Im Endergebnis zeigen sich starke Unterschiede insbesondere im Bedienkomfort, bei der Funktionalität sowie bei den Möglichkeiten der Ergebnisauswertung.

Testfeld und Praxis
In der neuen Studie werden erstmals die drei marktführenden Suiten von SAS, StatSoft und IBM SPSS miteinander verglichen. Um zu beurteilen, wie sich ein klassisches BI-Werkzeug im Vergleich zu den etablierten Data-Mining-Suiten schlägt, wurde die SAP BW Data Mining Workbench mit ins Testfeld aufgenommen.

Bereits früh im Testablauf werden Stärken und Schwächen der jeweiligen Tools sichtbar: Die besondere Stärke von SAS liegt in der Einbettung des Enterprise Miner in eine leistungsfähige BI-Gesamtarchitektur, die neben der Analyse flexible Möglichkeiten der Datenhaltung oder weitreichende ETL-Funktionen bietet.

IBM SPSS ist es gelungen, hohe Funktionalität in eine moderne, intuitive Oberfläche zu verpacken: Der Modeler bietet durch sein logisches Bedienkonzept und zahlreiche praktische Detaillösungen die beste Ergonomie im Testfeld.

StatSoft punktet mit einer sehr breiten Funktionsvielfalt: Der Data Miner enthält als einziges Tool im Test zusätzlich zu den gängigen Data-Mining-Verfahren stets das vollständige StatSoft-Statistikmodul. Dies schließt z. B. mächtige Datenvorverarbeitungsmöglichkeiten, eine breite Palette an statistischen Testverfahren sowie eine große Anzahl an frei konfigurierbaren Grafiken ein. Bei komplexen Data-Mining-Szenarien erleichtern viele dieser Funktionalitäten die tägliche Arbeit oder ermöglichen überhaupt erst eine umfassende Analyse.

Mit bereits deutlichem Abstand folgt das SAP BW mit der Data Mining Workbench: Ihr merkt man vor allem an der unübersichtlichen und wenig logisch aufgebauten Oberfläche an, dass sie seit mehreren Jahren keine substanziellen Aktualisierungen mehr erfahren hat. Hinzu kommen deutliche praktische Einschränkungen in der Funktionalität.

Bedienkonzepte und Weiterentwicklung
Die hohe Funktionsmächtigkeit und die vielfältigen Parametrisierungsmöglichkeiten der Suiten führen allerdings zu vergleichsweise langen Einarbeitungszeiten. Es wird zudem immer schwieriger, ein einziges Bedienkonzept für alle denkbaren Anwendergruppen bereit zu stellen. Als Konsequenz gehen manche Hersteller dazu über, mehrere Bedienoberflächen für unterschiedliche Nutzergruppen zur Verfügung zu stellen:

SAS bietet zusätzlich zur klassischen Modellbildung mit dem Rapid Predictive Modeler eine (in der aktuellen Version nochmals überarbeitete) einfache, separate Data-Mining-Umgebung mit sinnvoll begrenzten Parametrisierungsoptionen an. Hier konnten im Test bereits mit den Standardparametern in kurzer Zeit akzeptable Ergebnisse erzielt werden, die auf Wunsch manuell weiter verfeinert werden können.

StatSofts Beitrag zur Automatisierung des Prozesses liegt in alternativ angebotenen, vorgefertigten Data-Mining-Rezepten für Standard-Prognoseaufgaben. Hier kann der Nutzer ohne viel Aufwand eine Vielzahl an Vorhersagemodellen erzeugen.

IBM SPSS stellt unter anderem mit dem automatischen Klassifizierer eine vergleichbare Funktionalität bereit: Der Anwender kann in einem Dialog mehrere Prognosemodelle mit unterschiedlichen Verfahren und Parametereinstellungen automatisch berechnen und deren Ergebnisse vergleichen.

Darüber hinaus erweitern die Tool-Hersteller insbesondere die Komponenten und Module ihrer Produkte, die für einen schnellen Einstieg in Data-Mining-Analysen besonders wichtig sind. Zu den Erweiterungen gehören Neuentwicklungen und weitere Differenzierungen ihrer Bedienkonzepte, ausführliche Dokumentationen inklusive Online-Hilfen und praxisnaher Tutorials sowie innovative Ansätze zur Automatisierung des Data-Mining-Prozesses. (mayato: ra)

mayato: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Studien

  • Lückenhafte Datensicherung birgt Risiken

    Hycu hat die Ergebnisse einer aktuellen Studie veröffentlicht, die unter Anwaltskanzleien und Fachleuten aus dem Rechtsbereich durchgeführt wurde. Während Anwaltskanzleien zunehmend auf Cloud-basierte Anwendungen umsteigen, zeigen die Ergebnisse der neuen globalen Umfrage, dass es erhebliche Wissenslücken hinsichtlich der Verantwortlichkeiten im Bereich Datensicherung gibt. Laut dem in Kürze erscheinenden Bericht "State of SaaS Resilience 2025" glauben 85 Prozent der IT-Entscheidungsträger im Bereich Unternehmens- und freiberufliche Dienstleistungen, einschließlich Rechtsdienstleistungen, dass native SaaS-Plattformen wie iManage Cloud, Microsoft 365, DocuSign und Box eine umfassende Datensicherung bieten.

  • Skepsis gegenüber SaaS

    Die IT-Modernisierung zählt seit Jahren zu den Top-Prioritäten von CIOs - allerdings gibt es aufgrund der hohen Komplexität oft nur geringe Fortschritte. Der Druck zur IT-Modernisierung ist jedoch höher denn je, denn je häufiger veraltete Anwendungslandschaften auf moderne digitale Technologien treffen, desto stärker werden ihre technischen und wirtschaftlichen Grenzen sichtbar. Management und Fachbereiche erkennen daher zunehmend die Notwendigkeit von Modernisierungsmaßnahmen.

  • Cloud-Angriffe werden schneller und intelligenter

    Sysdig, Anbieterin von Cloud-Sicherheit in Echtzeit, hat ihren aktuellen Cloud Defense Report 2025 veröffentlicht. Der Bericht enthält Erkenntnisse und Prognosen über die entscheidende Rolle von KI, Open Source und Transparenz durch Runtime Insights (Laufzeit-Analysen) im Kontext aktueller Cloud-Bedrohungen. Die Datengrundlage stammt aus einer sorgfältigen und methodisch fundierten Analyse von Millionen von Cloud-Konten und Kubernetes-Containern, die Sysdig-Kunden täglich betreiben und sichern. Die repräsentative Stichprobe umfasst eine Vielzahl von Cloud-affinen Branchen auf der ganzen Welt.

  • Interne IT-Dienstleister: Umsätze steigen

    Interne IT-Dienstleister von Unternehmen und Organisationen in Deutschland verzeichnen 2024 ein Wachstum von durchschnittlich rund 10 Prozent und gewinnen im Kontext der digitalen Transformation an Bedeutung. Im Fokus stehen dabei der Wandel zum datengetriebenen Unternehmen, die Entwicklung KI-basierter Anwendungen, die IT-Modernisierung, das Vorantreiben der Prozessautomatisierung sowie die Kompensation des Fachkräftemangels und des demografischen Wandels durch digitale Technologien.

  • Risiken im Zusammenhang mit KI kaum versichert

    Künstliche Intelligenz (KI) ist längst in deutschen Unternehmen im Dienstleistungssektor voll angekommen - das zeigt eine aktuelle Umfrage zu Nutzung, Chancen und Risiken von KI, die im Auftrag von Hiscox durchgeführt wurde. Befragt wurden Anwendende sowie (Mit-) Entscheider über den Einsatz von KI.

  • Investitionen beginnen sich auszuzahlen

    Rockwell Automation hat die deutschen Ergebnisse ihres 10. jährlichen Berichts zur intelligenten Fertigung vorgestellt. Die Daten zeigen, dass der Fertigungssektor erhebliche Investitionen und Erträge in generative KI tätigt, aber immer noch mit Herausforderungen wie ungleichmäßiger Personalentwicklung und unzureichend genutzten Daten zu kämpfen hat.

  • Verständnis von systemischen Cyberrisiken

    CyberCube und Munich Re, Anbieterin in ihren jeweiligen Gebieten, Modellierung und Rück-Versicherung, haben die wesentlichen Ergebnisse einer gemeinsamen Umfrage veröffentlicht. Gegenstand waren schwerwiegende Cyber-Kumulereignisse und die relative Widerstandsfähigkeit von Unternehmen gegenüber systemischen Ereignissen aufgrund wirksamer Maßnahmen zur Risikominderung.

  • Warum Echtzeitdaten für KI entscheidend sind

    Daten waren für Unternehmen schon immer wichtig, das ist nichts Neues. Was sich jedoch verändert hat, ist die Geschwindigkeit, mit der sie verarbeitet werden müssen. Herkömmliche Datenarchitekturen stoßen zunehmend an ihre Grenzen, insbesondere wenn es darum geht, Entscheidungen auf Basis aktueller Daten in Echtzeit zu treffen.

  • Verantwortung für Datenschutz und Compliance

    Fivetran, Anbieterin für Data Movement, präsentiert eine neue Studie. Sie zeigt: Nicht einmal die Hälfte (49 Prozent) der Technologie-Verantwortlichen in Unternehmen sind der Meinung, ihre derzeitige Datenarchitektur wäre den Anforderungen für den Einsatz von KI gewachsen. Gleichzeitig planen 89 Prozent noch dieses Jahr ihre eigenen Daten für das Training großer Sprachmodelle (LLMs) zu verwenden. Diese Diskrepanz verdeutlicht, wie schnell die Unternehmen den Einsatz von KI vorantreiben, obwohl sie gleichzeitig einräumen, dass ihre Datensysteme dafür noch nicht bereit sind.

  • Hybride oder Cloud-first-Umgebungen sind Standard

    Keeper Security veröffentlichte ihren neuen Insight Report "Securing Privileged Access: Der Schlüssel zur modernen Unternehmensverteidigung". Da sich Unternehmen auf ein immer komplexeres Netzwerk von Benutzern, Anwendungen und Infrastrukturen verlassen, ist die Verwaltung privilegierter Zugriffe zur Verhinderung von Cyberangriffen sowohl kritischer als auch komplizierter geworden. Die rasche Einführung von Cloud-, Hybrid- und Multi-Vendor-Umgebungen in Kombination mit der zunehmenden Raffinesse und KI-gestützten Cyberangriffen erhöht den Bedarf an Lösungen, die sichere, skalierbare und zentralisierte Zugangskontrollen durchsetzen können.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen