- Anzeige -


Sie sind hier: Startseite » Markt » Hintergrund

Open Banking - Bankgeschäfte überall


Datenvirtualisierung befeuert die digitale Transformation der Finanzbranche
Geht es um Open Banking, müssen Verantwortliche entscheiden, welche Daten geteilt werden und wie diese integriert werden sollen

- Anzeigen -





Von Otto Neuer, VP Sales bei Denodo

Das Jahr 2020 hat gezeigt: Die Zukunft ist digital. Dabei sind zunehmend Daten die Treiber der digitalen Transformation in Unternehmen. Der gewinnbringende Umgang mit ihnen ist dabei der Schlüssel zum Erfolg. Denodo stellt fünf Trends in der Finanzbranche vor und zeigt, wie Unternehmen durch Datenvirtualisierung profitieren können:

1. Die Zukunft liegt in der Cloud
Moderne Cloud-Technologien bieten ein enormes Potential für Finanzunternehmen. Das Beraterhaus Deloitte geht davon aus, dass im Jahr 2030 Cloud Banking eine zentrale Rolle in der Finanzbranche einnimmt. Der Umstieg auf eine Cloud-Lösung bringt jedoch auch Herausforderungen mit sich. Verantwortliche müssen dabei zahlreiche Datenquellen mit unterschiedlichen Formaten und Protokollen kombinieren. Zusätzlich setzen sich die Datenquellen aus verschiedenen Cloud-Diensten von unterschiedlichen Anbietern, bestehenden On-Premises-Quellen und Software-as-a-Service (SaaS)-Anwendungen zusammen.

Mit Datenvirtualisierung können Daten reibungslos und ohne Downtime in die Cloud migriert werden. So wird der tägliche Betrieb nicht beeinträchtigt und das Risiko für das Unternehmen maßgeblich minimiert. Die Technologie bietet einen einheitlichen Layer, der alle Daten integriert und zugänglich macht. Da die Datenquellen von den Datenkonsumenten und Analyse-Tools entkoppelt sind, merken die Daten-Nutzer nichts davon, wenn die IT-Abteilung die Daten "im Hintergrund" in die Cloud migriert.

2. Open Banking: Schnell und sicher
Geht es um Open Banking, müssen Verantwortliche entscheiden, welche Daten geteilt werden und wie diese integriert werden sollen. Während sich traditionelle Technologien auf das Verschieben und Kopieren großer Datenmengen - typischerweise über Nacht - mithilfe von ETL-Tools (Extrahieren, Transformieren und Laden) verlassen, ermöglicht Datenvirtualisierung Datenzugriff in Echtzeit und nach Bedarf ohne physische Replikation der Daten. So können Unternehmen Open Banking beschleunigen.

Ein Layer kann dabei Datenquellen und Anwendungen einfach kombinieren – und so einer beliebigen Anzahl von Nutzern zugänglich machen. Ein zentraler Vorteil ist, dass Security, Data Governance und Berechtigungskonzepte zentral und damit sicher und effizient gemanagt werden können.

3. Bankgeschäfte überall: Mobile- und Online-Banking
Eine Umfrage der Beratung Ernest & Young deckte auf: Die Hälfte der deutschen Verbraucher möchte in Zukunft digitale Services von Banken nutzen – oder die Nutzung intensivieren. Dabei spielen mobile Endgeräte eine immer größere Rolle. Für umfassende mobile Services wird eine Back-End-Datenintegration benötigt, die Daten aus unterschiedlichen Systemen zusammenführt. Entwickler können dafür mithilfe von Datenvirtualisierung ein kanonisches Datenmodell in einem virtuellen Layer erstellen und in einem Publication Layer anschließend an die unterschiedlichen Kanäle (Apps, HTML einer Website) effizient erstellen und anpassen.

4. "Bar oder mit Karte?" war gestern
Neben der Art, wie Verbraucher ihre Bankgeschäfte erledigen, verändert sich auch ihr Bezahlverhalten. Laut einer Studie der EZB hat die Nutzung bargeldloser Zahlungsmethoden durch die Corona-Pandemie zugenommen. Dadurch können Finanzunternehmen einen besseren Einblick in das Verhalten und die Präferenzen der Kunden erhalten. So können beispielsweise Betrugsversuche besser identifiziert werden. Dies erfordert jedoch einen agilen und schnellen Echtzeitzugriff auf Daten. Da bei der Methode der Datenvirtualisierung die Daten ohne Kopieren direkt zugänglich gemacht werden und unnötige Latenzzeiten entfallen, ist diese prädestiniert für Anwendungen im Bereich der Fraud-Detection.

5. Der Kunde ist König – die Customer Experience
Mit der fortschreitenden digitalen Transformation finden neue Technologien Einzug in die Finanzbranche. Virtuelle Assistenten, Chatbots und Künstliche Intelligenz (KI) ermöglichen eine personalisierte Erfahrung für Nutzer. Die dadurch generierten Daten können Finanzunternehmen helfen, neue Produkte zu entwickeln und ihr Angebot an die Bedürfnisse ihrer Kunden anzupassen. Da sich digitale Services mit zunehmender Konkurrenz konfrontiert sehen, ist eine optimale Customer Experience unabdingbar. In Anbetracht der wachsenden Menge an Informationen sind alte Modelle der Datenintegration zu kostspielig, zu komplex und zu langsam. Datenvirtualisierung bietet Analysten einen einzigen Zugriffspunkt auf alle Daten. Dadurch können sie jederzeit auf alle Daten zugreifen und die Customer Experience optimieren. (Denodo: ra)

eingetragen: 06.05.21
Newsletterlauf: 12.07.21

Denodo: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Hintergrund

  • Automatisierung von Rechenzentren

    Laut einer aktuellen Prognose des Research- und Beratungsunternehmens Gartner wird die Hälfte der Cloud-Rechenzentren bis 2025 hochentwickelte Roboter einsetzen, welche mit Künstlicher Intelligenz (KI) und Machine Learning (ML)-Fähigkeiten ausgestattet sein werden. Dies soll helfen die Betriebseffizienz um 30 Prozent zu steigern. "Es gibt eine immer größer werdende Kluft zwischen dem Fachpersonal und der zunehmenden Nachfrage für Server und Speichervolumen in den Rechenzentren", erklärt Sid Nag, Research Vice President bei Gartner. In diesen vier Bereichen sollen Roboter innerhalb der nächsten fünf Jahre bei der Automatisierung von Rechenzentren helfen: Server Upgrades und Wartung, Monitoring, Sicherheit und Einsatz von KI/ML.

  • Ohne Zwischenstopp in die Cloud

    Myrko Rudolph, Geschäftsführer der exapture GmbH und Experte für dezentrale Digitalisierung, informiert über die neuen Entwicklungen im Cloud Computing und prophezeit der Kombination mit Scanprozessen eine große Zukunft. "Unser Umgang mit Papierdokumenten hat sich bereits in den vergangenen Jahrzehnten drastisch verändert. Digitale Arbeitsweisen nahmen im Verlauf einen immer größeren Stellenwert im alltäglichen Leben ein, sodass rein analoge Prozesse heutzutage kaum noch stattfinden. Durch intelligente Scansoftware ließen sich haptische und virtuelle Datensätze weitestgehend innerhalb aneinander angepasster Abläufe vereinen. Während der Pandemie gab es nun einen weiteren Schub für diese Entwicklung, denn längst nehmen wir sogar den Arbeitsplatz selbst nicht mehr als physischen Ort wahr, den wir morgens betreten und abends wieder verlassen - in dessen vier Wänden wir Blätter abheften und bei Bedarf wieder aus den Aktenschränken suchen. ‚Immer und überall' gilt als Devise der Stunde und macht einen dezentralen Zugriff auf stetig relevante Daten unabdingbar. Das heißt, Informationen müssen in die Cloud - und das möglichst schnell. Warum also noch vermeidbare Umwege nehmen?

  • Sichere Verwahrung in der Private Cloud

    Keine Branche in der modernen Wirtschaft steht unter einem derart hohen Innovationsdruck wie die Informationstechnik. Sei es im Kundenservice, in externen wie internen Kommunikationsabläufen, im Management der Produktionsabläufe oder in der Supply Chain - in jeglichen Bereichen eines Betriebes herrscht ein großer Bedarf an digitalen Software-Lösungen, die Unternehmensprozesse automatisieren, überwachen und organisieren. Folglich resultiert daraus eine Fülle von zu verarbeitenden Datenmengen, die hohe Kosten sowie einen großen personellen und organisatorischen Aufwand verursachen."Da sich die Digitalisierung von Unternehmensprozessen in Zukunft einer vermehrten Ausweitung gegenübersieht, sollte die Frage erlaubt sein, ob die interne Datenverwaltung in einem eigenen Rechenzentrum überhaupt noch sinnvoll ist", stellt Jerome Evans, Gründer und Geschäftsführer der diva-e Datacenters GmbH, klar. Als Lösungsansatz und Versprechen für die Zukunft stellen sich dabei externe Rechenzentren und private Cloud Umgebungen heraus, die Unternehmen einerseits in jeglichen Fragen der Speicherung und Bereitstellung von Daten unterstützen, sowie Kosten senken und andererseits die vorhandenen sensiblen Daten sicher an geografisch getrennten Server-Standorten verwahren.

  • "Gaia-X" soll sichere Infrastruktur schaffen

    Wie der "Cloud-Monitor 2021" von Bitkom und KPMG zeigt, hat sich - nicht zuletzt durch die Corona-Krise - die Cloud in Deutschland durchgesetzt. Von den 550 befragten Unternehmen ab 20 Mitarbeitenden setzen 82 Prozent bereits auf Cloud Computing-Infrastrukturen. Der Großteil dieser Unternehmen ist in ihrer Cloud-Strategie allerdings abhängig von amerikanischen sowie chinesischen Cloud-Anbietern. Eine Alternative böte die europäischen Cloud Gaia-X, mit der die EU europäische Werte wahren und neue Maßstäbe bezüglich des Datenschutzes setzen wollte. Das ambitionierte Digitalprojekt deutscher und französischer Unternehmen, das im Herbst 2019 startete und an der inzwischen über 300 Organisationen beteiligt sind, darunter Bosch, Siemens, SAP, der Telekom, dem Bundesverband der Deutschen Industrie, dem Digitalverband Bitkom und der IG Metall, sieht sich jedoch Kritik ausgesetzt - auch seitens der IT-Sicherheitsexperten der PSW Group. Insbesondere die Tatsache, dass mit Microsoft, Amazon und Google US-Giganten an Gaia-X beteiligt sind, sieht Geschäftsführerin Patrycja Schrenk kritisch und gibt zu bedenken: "So könnten die europäischen Werte, die mit Gaia-X eigentlich hochgehalten werden sollten, tief fallen. Wenn Hyperscaler dieser Art beteiligt sind, können kaum europäische Standards geschaffen und etabliert werden."

  • PKI in einem as-a-Service-Angebot nutzen

    Immer mehr Unternehmen kehren kostenintensiven On-Premises-PKI-Systemen den Rücken und setzen stattdessen auf leicht skalierbare und flexible Cloud-Lösungen. HID Global, weltweit führender Anbieter von vertrauenswürdigen Identitätslösungen, erklärt die Vorteile Cloud-basierter PKI-Lösungen. Eine Public Key Infrastructure (PKI) ermöglicht die verschlüsselte Übertragung von Informationen auf der Basis von öffentlichen und privaten Schlüsseln. Mit einer solchen Infrastruktur kann jedes Unternehmen Zugriffe überwachen oder Hackerangriffe unterbinden. Für die PKI-Implementierung gibt es prinzipiell zwei Möglichkeiten.

  • Google-Infrastruktur als Täterumfeld

    Fast 60 Millionen Angriffs-Mails via Microsoft 365 und 90 Millionen via Google - das ist die erschreckende Bilanz, die der US-Cybersecurity-Spezialist Proofpoint jetzt nach einer Analyse der Cyberbedrohungen für 2020 veröffentlicht hat. Cyberkriminelle nutzen ganz offensichtlich die umfangreiche Funktionalität und nahezu grenzenlose Skalierbarkeit von Diensten wie Microsoft 365, Azure, OneDrive, SharePoint, G-Suite und Firebase Storage um digitale Angriffe auszuführen. Mehr als ein Viertel davon (27 Prozent) liefen über den Google-Mail-Service Gmail. Da es sich hier ausschließlich um eine Analyse von Angriffen handelt, die auf Kunden von Proofpoint abzielten, ist der tatsächliche Wert kaum zu ermitteln. Der Trend ist jedoch ungebrochen, im ersten Quartal 2021 wurden bereits mittels Microsoft 365 sieben Millionen gefährliche Nachrichten verbreitet und im Falle weiterer 45 Millionen nutzten die Täter die Google-Infrastruktur. Das Volumen gefährlicher Nachrichten, die mittels dieser in der Wahrnehmung vieler doch sehr vertrauenswürdigen Cloud-Dienste versendet wurden, übertraf dabei sogar das aller Botnets im Jahr 2020. Da die Angreifer hierzu eben auch Domains wie "outlook.com" und "sharepoint.com" nutzen, die bisher häufig als seriöse Quelle galten, wird die Erkennung von Attacken immer schwieriger.

  • Der Mainframe im neuen Normal

    Auch im Jahr 2021 stehen Mainframes im Zentrum des Geschehens. Trotz technologischer Fortschritte bleiben sie geschäftskritisch, denn sie überzeugen mit Leistungsfähigkeit und Zuverlässigkeit. Im Rahmen der fortschreitenden Transformation, die auch vor dem Mainframe nicht Halt macht, müssen Unternehmen nun dessen Sicherheit in den Fokus rücken. Que Mangus, Product Marketing Manager for Application Modernization and Connectivity bei Micro Focus, gibt tiefere Einblicke in die Bedeutung des Mainframes. Mainframes bleiben das Herzstück von Enterprise Computing. Laut Zahlen von IBM laufen 55 Prozent aller Enterprise-Application-Transaktionen auf dem Mainframe. Zusätzlich befinden sich, laut IBM, 80 Prozent der weltweiten Unternehmensdaten auf Mainframe-Computing-Plattformen oder stammen von diesen. Oftmals geht es dabei um sensible Informationen, wie etwa personenbezogene Daten. Diese gilt es, gemäß der im Mai 2018 eingeführten Datenschutzgrundverordnung (DSGVO), zu schützen.

  • MSPs müssen hybride Cloud-Lösungen bereitstellen

    Eines der heißesten Themen im Netzwerkbereich ist das Secure Access Service Edge (SASE)-Modell, ein von Gartner konzipiertes architektonisches Framework, das eine Roadmap zur Transformation von Legacy-WAN hin zu einem Cloud-verwalteten Edge beschreibt: SASE kombiniert WAN-Edge-Funktionen mit aus der Cloud bereitgestellten Sicherheitsfunktionen. Gute MSP-Servicebereitstellungsmodelle sind bereits auf die maßgeschneiderte Natur von integriertem SASE abgestimmt. MSPs können so Managed Services nach Bedarf definieren, verfeinern und bereitstellen, was Kosteneffizienz und Skalierbarkeit ermöglicht. Viele werden jedoch ihre siloartigen Organisationsstrukturen umgestalten müssen.

  • Cloud ist stark auf Kernprozesse fokussiert

    Cloud-Lösungen sind nichts Neues, bei SAP werden diese immerhin seitmehreren Jahren angeboten. Doch so wirklich wollten sich deutsche Unternehmen bisher nicht von ihren "On-Premise" Installationen verabschieden. Die vorherrschende Meinung: Cloud Computing-Lösungen können einfach nicht leisten was eine firmeneigene Software schafft. Während dies zu Beginn in Teilbereichen auch stimmte, offenbart die Cloud zunehmend ihre Stärken. Vor allem der "immer und überall" Zugang für Mitarbeiter, Partner und Dienstleister sowie die schnelle und effiziente Implementierung hat im vergangenen Pandemie-Jahr zunehmend an Bedeutung gewonnen. Aber auch die stetige Weiterentwicklung in Richtung künstliche Intelligenz und Automatisierung sprechen immer mehr für die Cloud. Für Unternehmen gibt es derzeit reichlich gute Gründe um im Rahmen ihrer Digitalisierungsstrategie über einen Umstieg von internen Softwarelösungen über Cloud-Lösungen nachzudenken. Für Geschäftsführung und Aktionäre steht dabei meist die Kostenminimierung im Vordergrund. Denn durch Cloud-Hosting lässt sich die Softwarestruktur effizienter betreiben und Veränderungen des Geschäftsmodells können direkt skaliert werden. Während diese Flexibilität die letzten Jahre keinen großen Stellenwert hatte, ist sie aktuell zu einem Haupttreiber für Cloud-Lösungen geworden.

  • Open Banking - Bankgeschäfte überall

    Moderne Cloud-Technologien bieten ein enormes Potential für Finanzunternehmen. Das Beraterhaus Deloitte geht davon aus, dass im Jahr 2030 Cloud Banking eine zentrale Rolle in der Finanzbranche einnimmt. Der Umstieg auf eine Cloud-Lösung bringt jedoch auch Herausforderungen mit sich. Verantwortliche müssen dabei zahlreiche Datenquellen mit unterschiedlichen Formaten und Protokollen kombinieren. Zusätzlich setzen sich die Datenquellen aus verschiedenen Cloud-Diensten von unterschiedlichen Anbietern, bestehenden On-Premises-Quellen und Software-as-a-Service (SaaS)-Anwendungen zusammen. Mit Datenvirtualisierung können Daten reibungslos und ohne Downtime in die Cloud migriert werden. So wird der tägliche Betrieb nicht beeinträchtigt und das Risiko für das Unternehmen maßgeblich minimiert. Die Technologie bietet einen einheitlichen Layer, der alle Daten integriert und zugänglich macht. Da die Datenquellen von den Datenkonsumenten und Analyse-Tools entkoppelt sind, merken die Daten-Nutzer nichts davon, wenn die IT-Abteilung die Daten "im Hintergrund" in die Cloud migriert.