Warning: main(templates/google-analytics/add.php) [function.main]: failed to open stream: No such file or directory in /hp/ah/aa/yg/www/main.php on line 42

Warning: main() [function.include]: Failed opening 'templates/google-analytics/add.php' for inclusion (include_path='.:/opt/php4/usr/share/php') in /hp/ah/aa/yg/www/main.php on line 42
Zeitschrift für Cloud Computing, Software-as-a-Service, SaaS, Outsourcing, Managed Services
Sie sind hier: Startseite » Markt » Studien

CRM und Data-Mining-Werkzeuge


"Data Mining Studie 2012": Kundenbindungsmanagement durch Einsatz von Prognosemodellen
Analytisches CRM: Kundenreaktivierung als wesentlichen Bestandteil von Customer Relationship Analytics


(09.07.12) - In Marketing und Vertrieb spielt das Customer Relationship Management (CRM) eine Schlüsselrolle: Hier wird entschieden, welche bestehenden Kunden in welcher Form betreut werden, welche potenziellen Neukunden wie angesprochen und welche ehemaligen Kunden zurückgewonnen werden sollen. Die Beantwortung dieser Fragen ist von strategischer Bedeutung und entscheidet über den Erfolg des gesamten Unternehmens. Die diesjährige Data Mining Studie des BI-Analysten- und Beraterhauses mayato legt den Schwerpunkt auf die Kundenreaktivierung als wesentlichen Bestandteil von Customer Relationship Analytics.

Dazu traten vier Data-Mining-Produkte gegeneinander an: Der "SAS Enterprise Miner 7.1", der "Statistica Data Miner 10" von StatSoft, der "IBM SPSS Modeler 14.2" und das "SAP BW "7 (Data Mining Workbench). Die Studie ist kostenpflichtig bei mayato erhältlich.

Potenziale erkennen und gezielt handeln
Der Test wurde anhand eines praxisnahen Analyseszenarios durchgeführt: Ein großer Online-Versandhändler möchte Erstbesteller, die nach einer definierten Zeitspanne keine Folgebestellung tätigen, durch bestimmte Aktionen zu einem Wiederkauf anregen. Dabei sollen nur die Kunden einen Einkaufsgutschein erhalten, bei denen mit hoher Wahrscheinlichkeit davon auszugehen ist, dass sie ohne diesen Anreiz keine weitere Bestellung getätigt hätten. Diese Kunden galt es auf Basis der vorliegenden Kundenhistorie mithilfe eines Prognosemodells vorherzusagen. Dazu wurden neben etablierten Methoden wie Entscheidungsbäumen auch neuere Prognoseverfahren wie Support Vector Machines (SVM) eingesetzt und für jedes getestete Tool separat auf Praxistauglichkeit und Prognosequalität geprüft. Unter Einbezug der errechneten Prognosen sollen die abwanderungsgefährdeten Kunden gezielt zurückgewonnen werden.

Die Bewertung der Tools stützt sich auf eine breite Anzahl an Einzelkriterien. Sie decken sowohl Funktionalitätsaspekte (Funktionsumfang in den Kategorien Datenvorverarbeitung, Analyseverfahren und Parametrisierung, Ergebnisvisualisierung, Gesamteffizienz) als auch die Benutzerfreundlichkeit (Stabilität, Ausführungsgeschwindigkeit, Dokumentation, Bedienung) ab.

Im Endergebnis zeigen sich starke Unterschiede insbesondere im Bedienkomfort, bei der Funktionalität sowie bei den Möglichkeiten der Ergebnisauswertung.

Testfeld und Praxis
In der neuen Studie werden erstmals die drei marktführenden Suiten von SAS, StatSoft und IBM SPSS miteinander verglichen. Um zu beurteilen, wie sich ein klassisches BI-Werkzeug im Vergleich zu den etablierten Data-Mining-Suiten schlägt, wurde die SAP BW Data Mining Workbench mit ins Testfeld aufgenommen.

Bereits früh im Testablauf werden Stärken und Schwächen der jeweiligen Tools sichtbar: Die besondere Stärke von SAS liegt in der Einbettung des Enterprise Miner in eine leistungsfähige BI-Gesamtarchitektur, die neben der Analyse flexible Möglichkeiten der Datenhaltung oder weitreichende ETL-Funktionen bietet.

IBM SPSS ist es gelungen, hohe Funktionalität in eine moderne, intuitive Oberfläche zu verpacken: Der Modeler bietet durch sein logisches Bedienkonzept und zahlreiche praktische Detaillösungen die beste Ergonomie im Testfeld.

StatSoft punktet mit einer sehr breiten Funktionsvielfalt: Der Data Miner enthält als einziges Tool im Test zusätzlich zu den gängigen Data-Mining-Verfahren stets das vollständige StatSoft-Statistikmodul. Dies schließt z. B. mächtige Datenvorverarbeitungsmöglichkeiten, eine breite Palette an statistischen Testverfahren sowie eine große Anzahl an frei konfigurierbaren Grafiken ein. Bei komplexen Data-Mining-Szenarien erleichtern viele dieser Funktionalitäten die tägliche Arbeit oder ermöglichen überhaupt erst eine umfassende Analyse.

Mit bereits deutlichem Abstand folgt das SAP BW mit der Data Mining Workbench: Ihr merkt man vor allem an der unübersichtlichen und wenig logisch aufgebauten Oberfläche an, dass sie seit mehreren Jahren keine substanziellen Aktualisierungen mehr erfahren hat. Hinzu kommen deutliche praktische Einschränkungen in der Funktionalität.

Bedienkonzepte und Weiterentwicklung
Die hohe Funktionsmächtigkeit und die vielfältigen Parametrisierungsmöglichkeiten der Suiten führen allerdings zu vergleichsweise langen Einarbeitungszeiten. Es wird zudem immer schwieriger, ein einziges Bedienkonzept für alle denkbaren Anwendergruppen bereit zu stellen. Als Konsequenz gehen manche Hersteller dazu über, mehrere Bedienoberflächen für unterschiedliche Nutzergruppen zur Verfügung zu stellen:

SAS bietet zusätzlich zur klassischen Modellbildung mit dem Rapid Predictive Modeler eine (in der aktuellen Version nochmals überarbeitete) einfache, separate Data-Mining-Umgebung mit sinnvoll begrenzten Parametrisierungsoptionen an. Hier konnten im Test bereits mit den Standardparametern in kurzer Zeit akzeptable Ergebnisse erzielt werden, die auf Wunsch manuell weiter verfeinert werden können.

StatSofts Beitrag zur Automatisierung des Prozesses liegt in alternativ angebotenen, vorgefertigten Data-Mining-Rezepten für Standard-Prognoseaufgaben. Hier kann der Nutzer ohne viel Aufwand eine Vielzahl an Vorhersagemodellen erzeugen.

IBM SPSS stellt unter anderem mit dem automatischen Klassifizierer eine vergleichbare Funktionalität bereit: Der Anwender kann in einem Dialog mehrere Prognosemodelle mit unterschiedlichen Verfahren und Parametereinstellungen automatisch berechnen und deren Ergebnisse vergleichen.

Darüber hinaus erweitern die Tool-Hersteller insbesondere die Komponenten und Module ihrer Produkte, die für einen schnellen Einstieg in Data-Mining-Analysen besonders wichtig sind. Zu den Erweiterungen gehören Neuentwicklungen und weitere Differenzierungen ihrer Bedienkonzepte, ausführliche Dokumentationen inklusive Online-Hilfen und praxisnaher Tutorials sowie innovative Ansätze zur Automatisierung des Data-Mining-Prozesses. (mayato: ra)

mayato: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>



Meldungen: Studien

  • Maß aller Dinge: Hybride & Multi-Cloud-Strategien

    Red Hat präsentierte die Ergebnisse ihres jährlichen "Global Tech Outlook". Der Bericht analysiert die Cloud Computing-Strategien und Digitalisierungserfolge von Unternehmen. Aus der aktuellen Ausgabe geht hervor, dass Unternehmen vor allem auf Hybrid-Cloud-Konzepte setzen (30 Prozent), die Multicloud-Strategie erfreut sich aber einer zunehmenden Beliebtheit (von 11 auf 13 Prozent). Die Zahl der Unternehmen, die auf eine Public- oder Private-Cloud-first-Strategie setzen, ist hingegen von 10 auf 9 Prozent (Public Cloud) beziehungsweise 17 auf 14 Prozent (Private Cloud) gesunken. Mit lediglich fünf Prozent ist die Anzahl der Unternehmen ohne Cloud Computing-Strategie anhaltend gering.

  • Unternehmen wollen von Cloud-native profitieren

    Cloud-native etabliert sich als eine der Basistechnologien der digitalen Transformation. 22 Prozent der Unternehmen haben Cloud-native-Technologien bereits als festen Teil ihrer Digitalisierungsstrategie etabliert; weitere 44 Prozent nutzen Cloud-native für ausgewählte Softwareentwicklungsprojekte. Die Bedeutung für die digitale Transformation zeigt sich unter anderem daran, dass 39 Prozent der untersuchten Unternehmen bereits ein verbindliches Ziel zum künftigen Anteil an Cloud-native-Anwendungen definiert haben. So sollen bis 2023 in jedem zweiten Unternehmen mehr als 40 Prozent der Softwareanwendungen auf Cloud-native-Technologien basieren. Um dieses Ziel zu erreichen, steht 65 Prozent der IT-Verantwortlichen ein dediziertes Cloud-Budget zur Verfügung. Das beträgt rund zehn Prozent ihres gesamten IT-Budgets.

  • Investitionen in Quantencomputing nehmen zu

    Atos und IQM gaben die Ergebnisse der ersten globalen IDC-Studie über den aktuellen Stand und die Zukunft des Quantencomputings im High Performance Computing (HPC)-Bereich bekannt. Die von IQM und Atos in Auftrag gegebene Studie zeigt, dass 76 Prozent der HPC-Rechenzentren weltweit planen, bis 2023 Quantencomputing einzusetzen; 71 Prozent wollen bis 2026 auf On-premise-Quantencomputer umsteigen. IQM ist Teil von Atos Scaler, einem Accelerator-Programm, das Partnerschaften mit dem Start-up-Ökosystem schafft.

  • Cloud Computing ist weiterhin Lokomotive

    Der EMEA ISG Index des Analysten- und Beratungshauses Information Services Group (ISG) zeigt vierteljährlich, wie sich der IT-Services-Markt in Europa entwickelt. Im Blickpunkt der Analyse stehen neu abgeschlossene Verträge mit einem Jahresvolumen (Annual Contract Value, ACV) von mindestens 4,3 Millionen Euro (5 Mio. US-Dollar). Hier sind die Fakten und Trends des dritten Quartals: Gesamtmarkt verzeichnet neuen Rekordwert. Im dritten Quartal lag das ACV des Gesamtmarkts, der sowohl Cloud-basierte As-a-Service-Leistungen als auch das klassische IT-Outsourcing-Geschäft (Managed Services) umfasst, bei 5,6 Milliarden Euro. Gegenüber dem eher schwachen Vorjahresquartal ist dies ein Anstieg von 36 Prozent beziehungsweise ein Plus von 1,3 Milliarden Euro.

  • Ausbau wiederkehrender Serviceumsätze

    AvePoint, ISV im Bereich Datenmanagement für Microsoft 365, gab die Ergebnisse seiner globalen MSP-Umfrage bekannt. Das Unternehmen befragte über 1.000 MSPs weltweit. Dabei deckte AvePoint Möglichkeiten für MSPs auf, ihre Umsätze durch Governance-, Sicherheits- und Migrationsdienste zu steigern. Denn die Anforderungen an die digitale Zusammenarbeit in der modernen Arbeitswelt nehmen weiter zu. Die Umfrage lieferte folgende Ergebnisse.

  • Übernahmen im IT-Services-Markt

    Das Marktforschungs- und Beratungsunternehmen Information Services Group (ISG) verzeichnet ein reges Übernahmegeschehen im IT-Services-Markt. Im laufenden Jahr ist die Zahl der Managed-Services-Dienstleister, die von anderen Unternehmen übernommen wurden, bereits jetzt höher als im bisherigen Rekordjahr 2017. Lag die Zahl der Übernahmen vor vier Jahren bei insgesamt 142, so waren es mit Ablauf des dritten Quartals 2021 weltweit 143 Deals. Der Gesamtwert der in diesem Jahr getätigten Übernahmen beträgt 13,6 Milliarden US-Dollar.

  • Weniger Daten - weniger CO2-Emissionen

    Unternehmen erkennen zunehmend, dass auch sie ihren Beitrag zum Klimaschutz leisten müssen, zeigt eine aktuelle Studie von Aparavi unter deutschen IT-Verantwortlichen: Für drei von fünf Befragten (63 Prozent) hat die Verringerung ihres CO2-Fußabdruck Priorität. Um dieses Ziel zu erreichen, setzen sie an verschiedenen Stellen an - eine davon: ihre großen Mengen an Unternehmensdaten. Um diese zu reduzieren und dadurch den für die Speicherung benötigten Stromverbrauch zu senken, löschen von den IT-Entscheidern, denen ihr Unternehmens-CO2-Fußabdruck wichtig ist, drei Viertel (77 Prozent) ungenutzte Daten konsequent. Wie notwendig dieser Schritt ist, verdeutlichen die Angaben, wie viele Daten überhaupt gespeichert werden: Unter allen Befragten nehmen sie bei knapp einem Drittel (31 Prozent) zwischen 1.001 und 5.000 Terabyte an Speicherplatz ein und bei mehr als jedem Vierten (27 Prozent) sogar über 5.000 TB - und mit jedem Tag wächst dieser Datenberg weiter. Allerdings wussten auch 21 Prozent der befragten IT-Verantwortlichen nicht, über wie viele Daten sie in ihrem Unternehmen verfügen. Dabei ist der Unterschied zwischen den Befragten, die in der IT-Abteilung selbst sitzen, und denjenigen, die in einer anderen Abteilung oder dem Management tätig sind, nur marginal.

  • Entscheidungsfindung nach "Bauchgefühl" negativ

    Die Menschen in Deutschland fühlen sich laut einer neuen Erhebung von "Oracle NetSuite" durch die Menge an Daten überfordert, die ihnen bei der Entscheidungsfindung am Arbeitsplatz zur Verfügung stehen. Die Studie gewährt Inneneinsichten in die Arbeitswelt von 2.000 Personen aus Großbritannien, Frankreich, Deutschland, Italien, Spanien, Benelux, den nordischen Ländern und dem Nahen Osten. Gemäß der Umfrage glauben viele Menschen zwar, dass sie über die Daten verfügen, um erfolgreich zu sein; doch sind viele von den Datenmengen überwältigt und planen in den nächsten 12 Monaten den Einsatz von Künstlicher Intelligenz, um Entscheidungsfindungsprozesse zu unterstützen. "Deutsche Unternehmen haben unermüdlich daran gearbeitet, auf einem nachhaltigen Weg zu Erholung und Wachstum zurückzukehren", sagte Dirk Oliver Schwane, Sales Director, Deutschland, Oracle NetSuite. "Aber einige hatten auch Schwierigkeiten und es ist offensichtlich, dass diejenigen Unternehmen, die anerkennen, dass sie eine schwierige Beziehung zu Daten haben, auch am wenigsten optimistisch sind und am wenigsten an Wachstum glauben. Angesichts der Herausforderungen und Chancen, die sich noch am Horizont abzeichnen, werden diejenigen Unternehmen, die objektive, datengesteuerte Entscheidungsfindung priorisieren und ihre Mitarbeiter angemessen mit relevanten und verdaulichen Erkenntnissen ausstatten, am erfolgreichsten sein."

  • Cloud: Kernstück neuer digitaler Erfahrungen

    Die anhaltende Pandemie und die Zunahme digitaler Dienste machen die Cloud zum Kernstück neuer digitaler Erfahrungen, so das Research- und Beratungsunternehmen Gartner. "Es gibt keine Geschäftsstrategie ohne eine Cloud-Strategie", sagt Milind Govekar, Distinguished Vice President bei Gartner. "Die Akzeptanz von und das Interesse an Public Clouds ist ungebrochen, da Unternehmen bei der Eingliederung neuer Workloads eine ‚Cloud First'-Politik verfolgen. Die Cloud hat neue digitale Erfahrungen ermöglicht, wie z. B. mobile Zahlungssysteme, nachdem Banken in Start-ups investiert haben. Oder Energieunternehmen, die die Cloud nutzen, um das Einkaufserlebnis ihrer Kunden zu verbessern, und Automobilhersteller, die für die Sicherheit und das Infotainment ihrer Kunden neue Personalisierungsdienste anbieten."

  • DevOps- und SRE-Prozesse sind entscheidend

    Dynatrace hat die Ergebnisse einer unabhängigen weltweiten Umfrage unter 1.300 Entwicklungs- und DevOps-Führungskräften veröffentlicht. Sie zeigen die Herausforderungen für Unternehmen, die mit der Nachfrage nach digitalen Innovationen Schritt halten möchten. Demnach ist die Skalierung von DevOps- und SRE-Prozessen entscheidend, um die Veröffentlichung hochwertiger digitaler Dienste zu beschleunigen. Isolierte Teams, manuelle Ansätze und immer komplexere Tools verlangsamen jedoch die Innovation. Deshalb agieren Teams eher reaktiv als proaktiv. Dies beeinträchtigt ihre Fähigkeit, einen Mehrwert für das Unternehmen zu schaffen. Die weltweite Studie "Deep Cloud Observability and Advanced AIOps are Key to Scaling DevOps Practices" steht hier zum Download zur Verfügung. Die Studie zeigt: Erhöhter Druck für eine schnellere Veröffentlichung: Im Durchschnitt erwarten Unternehmen, dass sie die Frequenz ihrer Software-Releases in den nächsten beiden Jahren um 58 Prozent erhöhen werden.