Accenture Banking Blog

Seit Jahren wird das Potential der Daten aus den operativen Systemen und Data Warehouses in Banken bei weitem nicht ausgereizt. Es ist dringend an der Zeit, die Silos aufzubrechen und den vollen Nutzen der Daten zu heben. Denn nicht nur die Finanzregulatoren stellen zunehmend umfassendere Datenanforderungen an die Banken. Auch das Business benötigt für neue Geschäftsmodelle in der digitalen Welt eine weit bessere und schnellere Grundlage.

Klassische Data Warehouse-Lösungen zielen im Wesentlichen auf die Unterstützung von Forecast- und Kontrollfunktionen. Sicher, die bestehenden strukturierten Lösungen und etablierten Prozesse liefern gute Ergebnisse. Sie sind jedoch den neuen Geschwindigkeitsanforderungen sowohl auf Geschäfts- als auch auf Aufsichtsseite nur beschränkt gewachsen. Durch die Ergänzung der bestehenden Architektur mit Big Data-Methoden und -Technologien in Kombination mit Advanced Analytics erhalten Benutzer verschiedenster Abteilungen im Front- als auch im Backoffice flexiblen Zugriff auf die Datengesamtheit. Damit lässt sich die Entscheidungsfindung in der gesamten Organisation auf ein ganz neues Niveau heben.

Starke Investitionen in Big Data-Lösungen

Fakten ersetzen Annahmen, Strategie- und Investmententscheidungen werden noch fundierter unterstützt. Und nicht zuletzt bekommen Banken ganz neue Werkzeuge an die Hand, um neue Wachstumschancen im Geschäft zu identifizieren und diese mit kundenzentrierten Produkten und Services in weit geringerer Time to Market für sich zu nutzen. Und tatsächlich sehen wir hier im Markt auch Bewegung, wie jüngste Studien belegen. 71 Prozent der weltweiten Finanzdienstleister beschäftigen sich inzwischen mit Predictive Analytics und Big Data. Die Investitionen in diese Technologien werden bis 2019 im zweistelligen Bereich zulegen, eben weil es mit klassischen Data Warehouse- und Reporting-Lösungen immer schwieriger wird, den steigenden Anforderungen gerecht zu werden.

Kostenvorteile nutzen

Attraktiv sind darüber hinaus aber auch die erheblichen Effizienz- und Einsparpotenziale, die mit Einführung einer Big Data-Plattform und der Ergänzung oder Ablösung isolierter Datensilos einhergehen. Data Lakes können weitaus größere Datenvolumina zu deutlich niedrigeren Kosten vorhalten. Die IT-Kosten einer Big Data-Architektur entsprechen durchschnittlich einem Zehntel der Kosten eines klassischen Data Warehouses. Und nicht zuletzt können aus einem Data Lake flexibel und kurzfristig neue Datenquellen angebunden und neue Reports generiert werden. Zeitverluste und potenzielle Fehlerquellen gehören damit der Vergangenheit an, denn Daten müssen nicht mehr wie in der traditionellen Architektur extrahiert, transformiert und in ein statisches Datenmodell geladen werden.

Die neue Flexibilität, die für Banken mit Big Data-Lösungen einhergeht, wird aber am Ende auch die Bedürfnisse der Aufsichtsbehörden weit besser adressieren. Schließlich werden hier immer häufiger Ad-hoc-Reports und Szenario-Analysen gefordert. Von weiteren Verschärfungen kann im regulatorischen Sturm durchaus ausgegangen werden. Insofern ist der Schritt nicht nur wichtig für das Geschäft, sondern vielmehr ein Gewinn für alle Seiten. Banken sollten die Entwicklung daher beherzt angehen, was wir in unserem globalen Bericht „Exploring Next Generation Financial Services: The Big Data Revolution“ noch tiefer beleuchten.

Kommentar schreiben

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.