Regulatorisch geforderte Datenqualität als Entscheidungs-unterstützung

Als Folge der Finanzkrise wird durch verschiedene regulatorische Anforderungen versucht, die Fähigkeiten der Banken zur Bewältigung von Stress- und Krisensituationen weiter auszubauen. Eine wesentliche regulatorische Anforderung ist dabei die Umsetzung der BCBS (Basel Committee on Banking Supervision) #239 Richtlinien für effektive Risikodatensammlung und Berichterstattung. Diese muss bis Januar 2016 für international systemrelevante Institute erfolgen. Für national systemrelevante Institute wird die Umsetzung empfohlen.

Die Vorschriften des BCBS #239 werden umfassende Anpassungen an den IT-Systemen und den Prozessen bewirken und entsprechend lange Umsetzungszeiten erfordern. Insbesondere auf qualitativ hochwertige Datenhaushalte legt die Aufsicht großen Wert.

Herausforderungen aus BCBS #239 für die Datenqualität

Die BCBS-Regeln verschärfen den heutigen Anspruch an die Finanz- und Risikoberichterstattung deutlich. Die Bundesbank hat in diversen Podiumsdiskussionen bereits einen Ausblick auf die geplante aufsichtsrechtliche Auslegung der BCBS-Principles gegeben. BCBS #239 lässt sich in vier Themenfelder unterteilen: Governance und Infrastruktur, Risikodatenaggregation, Risikoberichterstattung und Aufsichtsprüfung.

Abbildung 1: Die vier Themenfelder des BCBS #239

Aus dem Themenfeld Governance und Infrastruktur lässt sich für die IT-Infrastruktur die Anforderung einer einheitlichen Datenbasis ableiten. Zu diesem Zweck ist es notwendig, das Silo-Denken einzelner Fachbereiche zu durchbrechen und homogene und übergreifende Daten zu generieren. Dies bedarf risikoartübergreifender Daten und Methoden.

Die Themenfelder Risikodatenaggregation und Risikoberichterstattung hängen stark zusammen, denn eine adäquate Risikoberichterstattung ist nur mit einer qualitativ guten Datenbasis möglich. Die Risikodatenaggregation ist durch vier Prinzipien gekennzeichnet. Als erstes muss die Genauigkeit und Integration der Daten gewährleistet sein. Dafür müssen manuelle Eingriffe überwacht werden und es muss ein automatischer Abgleich der Risikodaten mit anderen Daten, vor allem Rechnungslegungsdaten, möglich sein. Desweiteren muss das Prinzip der Aktualität erfüllt werden. Der Risikoreport muss zehn Arbeitstage nach Monatsultimo auf Basis qualitätsgesicherter Daten vorliegen. Die Bank muss zudem fähig sein, kritische Risikodaten in Krisenzeiten zeitnah zu erstellen. In diesem Kontext ist auch das Prinzip der Anpassbarkeit zu nennen. Daten müssen ad hoc, flexibel und skalierbar generiert werden können. Um dies sicherstellen zu können, ist eine weitestgehend automatisierte Berechnung und Aggregation aller Kennzahlen unabdingbar. Lediglich auf diese Weise ist die Erstellung von Ad-hoc-Reports nach beliebigen Auswertungskriterien auf Basis qualitätsgesicherter Daten möglich. Das letzte Prinzip der Risikodatenaggregation ist die Vollständigkeit, also die Erfassung und Sammlung aller wesentlichen Risikopotenziale.

Die Anforderungen an die Risikoberichterstattung werden durch fünf Prinzipien gekennzeichnet. Das Prinzip der Genauigkeit kann nur durch eine End-to-end Betrachtung vom Vorsystem bis zum Report verwirklicht werden. Data-Flow-Charts sollen den Datenfluss über Systeme und manuelle Schnittstellen hinweg nachvollziehbar und transparent machen. Nur so kann eine Messung der Datenqualität über den Gesamtprozess sichergestellt werden. Genau wie bei der Risikodatenaggregation wird auch bei der Risikoberichterstattung eine Abdeckung aller wesentlichen Risiken verlangt. Die Prinzipien Verständlichkeit und Empfängerkreis fordern eine leichte Verständlichkeit des Risikoberichts und eine Anpassung an die Bedürfnisse der Empfänger, um eine fundierte Entscheidungsfindung zu unterstützen. Zuletzt gibt es Auflagen bezüglich der Frequenz der Risikoberichte. Der Turnus muss risikoadäquat sein und die Berichterstellung entsprechend schnell möglich sein.

Die Anforderungen an die Aufsichtsprüfung sollen hier nicht weiter betrachtet haben, weil sie keine zusätzlichen Anforderungen an die Datenqualität stellen.

Lösungsansatz

Die Umsetzung der oben beschriebenen regulatorischen Anforderungen ist in vielen Instituten mit der aktuell vorliegenden Datenbasis nicht möglich, daher kommt der Messung und kontinuierlichen Verbesserung der Datenqualität eine große Bedeutung zu. Wesentliche Herausforderungen in Bezug auf die Datenqualität sind die Transparenz und Integrität sowie die Einheitlichkeit der Daten.

Die Datenqualität hat großen Einfluss auf die Berichtsergebnisse, deswegen sollten die Reporte neben fachlichen KPIs auch KPIs zur Datenqualität beinhalten. Nur so kann für die Entscheider Transparenz über dieses bisher häufig wenig beobachtete und diskutierte Thema geschaffen werden. Gleichzeitig wird die Aussagefähigkeit und Validität der fachlichen KPIs bewertet. Die KPIs zur Datenqualität ermöglichen einen Einstieg in die Analyse und sollten Aufschluss über die Datenvollständigkeit und -korrektheit geben. Eine gute Datenqualität ist gekennzeichnet durch eine vollständige Erfassung aller relevanten Daten sowie korrekte, also fehlerfreie, Daten.

Hat eine schlechte Datenqualität eine messbare Auswirkung auf relevante Kennzahlen, so ist eine Ursachen- und Auswirkungsanalyse auf Basis der Liefersysteme der betroffenen Daten erforderlich. Ziel der Analyse ist es, die konkrete Ursache und Prozessstelle der Datenprobleme zu identifizieren sowie die Auswirkung auf relevante betriebswirtschaftliche Kennzahlen abzuschätzen, um geeignete Bereinigungsmaßnahmen entsprechend vorschlagen und priorisieren zu können. Eine regelbasierte Prüfung der Datenqualität mit Ursachen- und Auswirkungsanalyse ermöglicht es, die geforderte Nachvollziehbarkeit der Datenströme inklusive Rechenschritte auf aggregierter Ebene sicherzustellen. Prüfungen der Datenqualität und Korrekturen müssen dabei an unterschiedlichen Stellen im Prozess möglich sein – auch unabhängig von der jeweils eingesetzten Technologie.

Im Fall von unzureichender Datenvollständigkeit sollte eine detaillierte Betrachtung erfolgen können, welche die Identifikation relevanter Quellsysteme, Datenübertragungswege und manueller Schnittstellen ermöglicht.

Abbildung 2: Management Report mit KPIs zur Datenqualität

Es ist eine enge Zusammenarbeit der Bereiche Finance und Risk zur Schaffung einer gemeinsamen Datenquelle notwendig. Auf diese Weise werden die Kompatibilität verschiedener Auswertungen und die vollständige Erfassung aller wesentlichen Risikopotentiale gewährleistet. Neben einer bereichsübergreifenden Lösung zwischen Finance und Risk ist auch eine enge Zusammenarbeit zwischen Fachabteilungen und der IT wichtig. Für eine erfolgreiche Umsetzung des entwickelten Zielbildes werden neben dem Verständnis der System- und Datenlandschaft vertiefte fachliche Kenntnisse benötigt.

Chance

Gelingt es, die hohen Anforderungen an die Datenaktualität, -konsistenz und -verfügbarkeit zu erfüllen, zieht die Bank hieraus auch einen betriebswirtschaftlichen Nutzen. Durch die verbesserte Aggregation von Risikodaten und die erhöhte Qualität und Aktualität der Risikoberichterstattung kann sie Risiken effizienter und zuverlässiger steuern. Durch den Einbezug von KPIs zur Datenqualität in die Management Reports kann sicherstellt werden, dass dem Management eine zuverlässigere Informationsbasis zur Analyse und Vorbereitung von strategischen Entscheidungen zur Verfügung steht. Dadurch können schwerwiegende Fehler, die aus fehlenden oder falschen Daten resultieren, verhindert werden.

Sprechen Sie uns gerne an!

Dr. Eric Tobias Henn/ Autor BankingHub

Dr. Eric Tobias Henn

Senior Manager Office Münster

Manuel Knaus

Senior Manager

Artikel teilen

Kommentare

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

BankingHub-Newsletter

Analysen, Artikel sowie Interviews rund um Trends und Innovationen
im Banking alle 2 Wochen direkt in Ihr Postfach