Sie sind hier: Startseite » Markt » Studien

Herausforderungen von Big Data erkannt


Studie: "In Memory-Datenanalysen in Zeiten von Big Data" - Herausforderungen für Datenanalyse und Reporting durch Big Data
Unternehmen wappnen sich für Big Data, In Memory-Analysen gehören zum Rüstzeug


(11.10.12) - Laut einer von Pierre Audoin Consultants (PAC) veröffentlichten repräsentativen Studie haben deutsche Unternehmen die Herausforderungen von Big Data erkannt und betrachten In-Memory-Datenanalysen als einen wichtigen, aber nicht als den einzigen Lösungsansatz. Rund 60 Prozent der Unternehmen planen Investitionen in Data Warehouse, Datenmanagement und -integration sowie In-Memory-Datenanalyse. Den größten Mehrwert von In-Memory sehen sie in der Beschleunigung bestehender Datenanalysen.

Big Data und In-Memory Computing sind für deutsche Unternehmen längst keine Hype-Themen mehr. Sie haben erkannt, dass die steigende Datenflut neue Herausforderungen bei der Datenanalyse mit sich bringt und sie diesen adäquat begegnen müssen.

Dies ist eines der Ergebnisse der aktuellen Studie der Marktanalyse- und Beratungsgesellschaft Pierre Audoin Consultants (PAC). Für die Studie "In Memory-Datenanalysen in Zeiten von Big Data" wurden 102 IT-Verantwortliche in Firmen mit mindestens 500 Mitarbeitern aus unterschiedlichen Branchen in Deutschland befragt.

In-Memory-Datenanalysen als Ergänzungsbaustein
Mit dem rapide wachsenden Datenvolumen (Big Data) steigen auch die Anforderungen an Datenanalyse- und Reportingsysteme. So verwundert es nicht, dass auf In-Memory Computing basierende Analyseverfahren ein viel diskutiertes Thema in der IT-Branche sind. "Die Frage, ob In-Memory-Analysen in Zeiten von Big Data eine Rolle spielen, kann mit einem klaren Ja beantwortet werden", resümiert Frank Niemann, Principal Consultant Software Markets bei PAC und Autor der Studie. Er ergänzt: "Allerdings sehen deutsche IT-Manager In-Memory-Verfahren als einen von mehren Wegen, den Herausforderungen von Big Data zu begegnen."

So betrachtet die Mehrheit der deutschen Unternehmen In-Memory-Verfahren zunächst als Ergänzungsbaustein für zeitkritische Analysen. Immerhin bereits knapp 20 Prozent der Unternehmen sehen in ihnen aber eine wichtige Antwort auf die Herausforderungen durch Big Data. Sie erwarten, dass In-Memory-Systeme zentraler Bestandteil von Datenanalyseumgebungen werden.

"Unternehmen erkennen zunehmend die Chancen, die Big Data ihnen bietet. Datensammlungen sind erst dann sinnvoll, wenn sie zeitnah analysiert und komplexe Zusammenhänge aus ihnen herausgelesen werden", sagt auch Bodo Koerber, Director of Information Management, IBM Software Group, IBM Deutschland. "Aber es gibt kein one size fits all – die konkreten Anforderungen eines Unternehmens bestimmen, welcher Technologie-Mix ihm den höchsten Nutzen bringt. Sollen strukturierte Daten analysiert werden, kann In-Memory, bspw. mit Cognos TM1, ein Baustein sein. Sind es unstrukturierte Daten - das ist die Mehrheit der neu hinzukommenden Datenmengen –, kommen ein Data Warehouse wie Netezza oder Datenmanagement und -integration, wie DB2 oder InfoSphere, ins Spiel. IBM erstellt für jeden Kunden eine individuelle Information Agenda, die auf einem umfassenden Service- und Produktportfolio für Big Data jenseits von Schlagwörtern aufsetzt."

Mehrwerte von In-Memory-Datenanalysen
Einen zentralen Vorteil von In-Memory-Analysesystemen sehen die Unternehmen in der Beschleunigung bestehender Datenanalysen. Sie benennen aber auch jene Mehrwerte, die direkt mit ihren wesentlichen Anforderungen an Datenanalyse und Reporting zusammenhängen: Bessere Unterstützung von Ad-hoc-Analysen bzw. schnellere Bereitstellung neuer Analysen sowie die effiziente Deckung des Analysebedarfs aus den Fachbereichen. Nicht zuletzt ist auch die insgesamt erhöhte Reaktionsfähigkeit des Unternehmens ein wichtiges Argument für In-Memory-Analysen. Konkrete Projekterfahrungen bestätigen diese Argumente.

Hohe Investitionsbereitschaft
Big Data ist Investitionstreiber: Gut 60 Prozent der deutschen Unternehmen planen Investitionen in mindestens einem der folgenden drei Bereiche: Data Warehouse, Datenmanagement und -integration sowie In-Memory-Datenanalyse, wobei bei letzterer der Bedarf noch gering ist.

Anwenderunternehmen, die in diesen Bereichen in Hard- und Software investieren, haben zugleich einen hohen Bedarf an Beratungs- und Integrationsdienstleistungen. Die aktuelle Studie liefert belastbare Zahlen zu Anforderungen an Datenanalyse- und Reportingsysteme und entsprechenden Investitionsplänen in deutschen Unternehmen. Ein besonderer Fokus lag in der Frage nach der Bedeutung von auf In-Memory Computing basierenden Datenanalyseverfahren in Zeiten von Big Data.

Die Ergebnisse der Untersuchung basieren auf einer repräsentativen computergestützten, telefonischen Umfrage unter 102 IT-Leitern und IT-Verantwortlichen in Deutschland. Es wurden nur Unternehmen befragt, die bereits Lösungen und Tools für Datenanalyse und Reporting einsetzen. Ergänzend führte PAC zahlreiche Expertengespräche mit IT-Managern, um die Erkenntnisse aus der Befragung weiter zu vertiefen. (PAC: ra)

PAC: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Studien

  • IT-Service-Unternehmen

    Die konjunkturelle Entwicklung schlägt sich im Geschäftsjahr 2024 auf die Umsätze der in Deutschland tätigen IT-Dienstleister nieder. Während die Anbieter im Jahr 2023 dem Rückgang der Wirtschaftsleistung noch trotzen konnten, legte ihr Umsatz im Jahr 2024 lediglich um durchschnittlich 2,6 Prozent zu (2023: 9,4 Prozent). Die angespannte wirtschaftliche Lage sowie geopolitische Unsicherheiten zwangen viele Anwenderunternehmen, ihre Investitionen in digitale Technologien zu priorisieren oder gar zu verschieben. Aufgrund der Hoffnung auf eine geopolitische Entspannung, eine anziehende Konjunktur, unter anderem aufgrund des Sondervermögens der neuen Bundesregierung, sowie enormer Nachholeffekte bei der digitalen Transformation rechnen IT-Dienstleister für 2025 und 2026 wieder mit höheren Wachstumsraten.

  • Fehlende Datenstandards als Engpass

    Trotz des enormen Potenzials von Artificial Intelligence (AI) im Gesundheitswesen befinden sich viele Einrichtungen noch in der Anfangsphase der Umsetzung. Eine aktuelle internationale Studie von SS&C Blue Prism zeigt: 94 Prozent der befragten Organisationen betrachten AI zwar als strategisch wichtig - doch mangelnde Datenqualität und fragmentierte Dateninfrastrukturen behindern den effektiven Einsatz.

  • Netzwerksichtbarkeit gewinnt weiter an Bedeutung

    63 Prozent der deutschen Sicherheits- und IT-Entscheider berichten, dass sie im Laufe der vergangenen zwölf Monate Opfer mindestens eines Cyber-Angriffs geworden sind - ein Anstieg von 6,7 Prozent im Vergleich zum Vorjahr. Dies ergab die diesjährige Hybrid-Cloud-Security-Studie 2025 von Gigamon. Zum dritten Mal in Folge hat der führende Deep-Observability-Experte weltweit mehr als 1.000 Sicherheits- und IT-Experten befragt. Demnach ist dieser Anstieg vor allem auf die weitverbreitete Nutzung von KI durch Cyberangreifer zurückzuführen. Zudem beeinflusst die Technologie Sicherheit und Management von hybriden Cloud-Infrastrukturen.

  • Grundlage moderner KI-Anwendungen

    Confluent hat die Ergebnisse ihres vierten jährlichen Data Streaming Reports veröffentlicht. Für die Studie wurden 4.175 IT-Führungskräfte in zwölf Ländern befragt, darunter 325 aus Deutschland. Die Ergebnisse zeigen, dass Daten-Streaming-Plattformen (DSP) nicht mehr optional, sondern entscheidend für den Erfolg von Künstlicher Intelligenz (KI) und die umfassende digitale Transformation von deutschen Unternehmen sind. Eine deutliche Mehrheit der IT-Entscheider (81?Prozent) ist überzeugt, dass DSP die Einführung von KI erleichtern, da sie zentrale Herausforderungen wie Datenzugriff, -qualität und -Governance direkt adressieren.

  • KI erobert den Mittelstand

    Künstliche Intelligenz (KI) ist im Alltag kleiner und mittelständischer Unternehmen (KMU) angekommen. Bereits jede dritte Firma (32 Prozent) setzt auf die zukunftsweisende Technologie - das ergab eine aktuelle YouGov-Studie* im Auftrag von Ionos. Der Anteil KI-nutzender Unternehmen ist innerhalb eines Jahres um 11 Prozentpunkte gestiegen. Weitere 40 Prozent wollen KI einsetzen, wenn sie günstig oder kostenlos verfügbar ist. Der Paradigmenwechsel ist in vollem Gange - KI ist nicht länger nur ein Thema für Konzerne.

  • Viele nutzen KI, aber nur wenige bezahlen dafür

    In Deutschland dominieren aktuell bei Künstlicher Intelligenz die kostenlosen Angebote. Gerade einmal zehn Prozent derjenigen Bundesbürgerinnen und Bundesbürger, die generative KI einsetzen, bezahlen dafür: Acht Prozent nutzen aktuell kostenpflichtige KI-Dienste, zwei Prozent haben das in der Vergangenheit getan, jetzt aber nicht mehr.

  • Vertrauen als kritischer Faktor

    Cloudera, die hybride Plattform für Daten, Analysen und KI, hat die Ergebnisse ihrer jüngsten Studie "The Future of Enterprise AI Agents" veröffentlicht. Im Rahmen der Umfrage wurden im Januar und Februar 2025 fast 1.500 IT-Führungskräfte in Unternehmen in 14 Ländern, unter anderem Deutschland, befragt, um ihre Nutzungsgewohnheiten, Use Cases und Meinungen zu KI-Agenten (AI Agents) zu verstehen.

  • Compliance als größte Herausforderung

    Fivetran, Anbieterin für Data Movement, präsentiert eine neue Studie über den Einsatz von KI in Unternehmen. Die von Redpoint Content durchgeführte Umfrage zeigt, dass fast die Hälfte der Unternehmen von verzögerten, unzureichenden oder gescheiterten KI-Projekten berichten - und das trotz ehrgeiziger Strategien und großer Investitionen in KI und Datenzentralisierung.

  • SaaS bleibt die bevorzugte Wahl

    Das BCI hat den Emergency and Crisis Communications Report 2025, gesponsert von F24, veröffentlicht. Bereits im 11. Jahr analysiert dieser Bericht, wie sich die Krisenkommunikation in den vergangenen zwölf Monaten entwickelt hat, welche Kommunikationsmethoden bevorzugt werden und welche Auswirkungen neue Technologien auf den Sektor haben.

  • GenAI-Technologien im Finanzsektor

    NTT Data hat eine neue Studie veröffentlicht, die den Einsatz von generativer KI (GenAI) im globalen Bankensektor untersucht. Der Bericht mit dem Titel "Intelligent Banking in the Age of AI" zeigt, dass Banken und Finanzinstitute trotz der zunehmenden Verbreitung von GenAI-Technologien im Finanzsektor geteilter Meinung sind, wenn es um ergebnisorientierte Strategien geht. Nur die Hälfte der Banken (50 Prozent) sieht darin ein Instrument zur Steigerung von Produktivität und Effizienz. Ebenfalls die Hälfte (49 Prozent) glaubt, dass GenAI zur Senkung der operativen IT-Ausgaben eingesetzt werden kann.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen