Liquiditätsmanagement – Ansätze zur Modellierung von Cashflows für variable Produkte

Variable Produkte mit stochastischem Cashflowprofil wie insbesondere Non-Maturing Deposits sind in den vergangenen Jahren für die Liquiditäts- und Zinsrisikosteuerung verstärkt in den Fokus geraten. Eine zentrale Herausforderung bei der Berücksichtigung von variablen Produkten in der Liquiditäts- und Zinsrisikosteuerung liegt in einer akkuraten Modellierung der Liquiditäts- und Zinscashflows und somit in einer entsprechenden Antizipation des Kundenverhaltens. In diesem Artikel werden für die Liquiditätsperspektive im Markt gängige Ansätze diskutiert, bewertet sowie allgemeine Herausforderungen in der Praxis aufgezeigt.

Modellierung von Liquiditätscashflows für variable Produkte im Überblick:

Relevanz und regulatorische Anforderungen

Bei variablen Produkten handelt es sich um Produkte, deren Cashflowstruktur nicht deterministisch abgeleitet werden kann, da keine vertragliche Laufzeit und/oder Zinsbindung vereinbart wurde. In der Praxis ist es mittlerweile üblich, hierfür mathematische Modelle heranzuziehen. 

Die Ableitung und Verwendung möglichst passgenauer Cashflowannahmen ist wesentlich für eine optimierte Gesamtbanksteuerung. Die gestiegene Bedeutung von variablen Produkten mit stochastischem Cashflowprofil lässt sich zum einen durch neue oder weiterentwickelte aufsichtsrechtliche Anforderungen (z. B. EBA-IRRBB-Leitlinien[1], EZB-ILAAP-Leitfaden[2]) erklären, zum anderen aber auch durch den kontinuierlichen und signifikanten Volumenanstieg von Sichteinlagen als typisches variables Produkt in den vergangenen zehn Jahren (siehe Abbildung 1[3]).

Liquiditätsmanagement: Relative Volumenentwicklung der Einlagenarten Abbildung 1: Relative Volumenentwicklung der Einlagenarten

Institute sind gemäß den Anforderungen der MaRisk zu Liquiditätsrisiken[4] (BTR 3) dazu angehalten, Liquiditätsübersichten durch die Gegenüberstellung von Mittelzu- und -abflüssen für den kurz-, mittel- und langfristigen Horizont zu erstellen. Hierbei sind sowohl das normale als auch das angespannte Marktumfeld zu berücksichtigen. Eine Modellierung von Cashflows wird damit implizit vorgegeben.

Gemäß Grundsatz 3, Artikel 43 des EZB-ILAAP-Leitfadens sind unter der ökonomischen Perspektive interne Verfahren und Methoden zu entwickeln, um erwartete und unerwartete Liquiditätsabflüsse zu identifizieren, zu quantifizieren sowie die Ergebnisse in die Festlegung des internen Liquiditätspuffers einzubeziehen. Nach Artikel 47 sind die getroffenen Ablaufannahmen aus der ökonomischen Perspektive auch in der normativen Sicht zu berücksichtigen, beispielsweise bei der Berechnung der Forward-LCR, um Konsistenz zu gewährleisten. Des Weiteren sind sie auch für Stresstestberechnungen heranzuziehen und entsprechend zu variieren.

In Bezug auf die Wahl der Methode zur Risikoquantifizierung von Liquiditätscashflows werden weder in der MaRisk noch im ILAAP-Leitfaden explizite Vorgaben gemacht. Der ILAAP-Leitfaden definiert jedoch, dass die gewählten Verfahren und Annahmen „robust, hinreichend stabil, risikosensitiv und konservativ genug sein [sollten], um selten auftretende Liquiditätsabflüsse zu quantifizieren“ (Artikel 72). Dabei besteht zusätzlich der Anspruch, dass diese Methoden vollständig verstanden werden und für die Situation und das Risikoprofil des Instituts angemessen sind (Artikel 75).

Durch die beschriebenen Marktentwicklungen und regulatorischen Anforderungen wird es immer wichtiger, dass Institute den Ablauf ihrer Bestände zuverlässig und akkurat ermitteln. Qualitative Schätzungen der Cashflowablaufprognosen aus Erfahrungswerten und Expertenwissen, die in der Vergangenheit und auch durchaus heute noch durchgeführt werden, gelten als ungenau sowie nicht reproduzierbar. Gemäß zeb-Erfahrungen aus Projekten und Prüfungsfeststellungen sind diese nicht angemessen. Es werden fundierte, quantitative Modelle seitens der Aufsicht erwartet.

Vergleich der Ansätze zur Modellierung von Liquiditätscashflows

Im Folgenden werden unterschiedliche quantitative Ansätze und Methoden zur Ablaufmodellierung vorgestellt sowie ihre jeweiligen Vor- und Nachteile diskutiert. Es gibt vielfältige weitere Verfahren, die in der Modellierung einsetzbar sind (z. B. Monte-Carlo-Simulationen), auf welche jedoch in diesem Artikel nicht eingegangen wird. Die im Weiteren behandelten Methoden sind nach unserer Einschätzung in Abwägung der Kosten-Nutzen-Relation den anderen Verfahrensweisen überlegen.

Parametrische Verfahren zur Liquiditätsmodellierung

Im Kontext der quantitativen Modellierung von zukünftigen Liquiditätscashflows sind besonders parametrische Verfahren weit verbreitet. Bei diesen wird eine einheitliche Verteilung für die Cashflowveränderung zwischen zwei Zeitpunkten unterstellt und eine Approximation auf Basis historischer Daten durchgeführt. Typische Verteilungen, die hier angewandt werden, sind z. B. eine Standardnormalverteilung oder eine Log-Normalverteilung.

Da eine zeitlich konstante Verteilungsannahme vorausgesetzt wird, werden durch parametrische Verfahren Trends und saisonale Verlaufskomponenten im Ergebnis nicht berücksichtigt. Bei Bedarf können diese jedoch auch mit einem Regressionsmodell (z. B. linear, exponentiell, Sinus/Cosinus) kombiniert werden.

Trotz der undifferenzierten Approximation aller Liquiditätscashflows, z. B. durch eine Standardnormalverteilung, ist diese Methode aus unserer Sicht eine deutliche Verbesserung und sinnvolle Erweiterung zu einer rein qualitativen Schätzung, da die quantitativen Ergebnisse reproduzierbar und nachvollziehbar sind. Des Weiteren sind parametrische Verfahren durch ihre geringe Komplexität relativ ressourcenschonend und liefern schon auf Basis einer spärlichen Datenlage zuverlässige Ergebnisse. So kann das Verfahren mit wenig Aufwand aufgesetzt und betrieben werden.

Fortgeschrittene Zeitreihenmodelle (z. B. ARIMA-basiert)

Für eine noch genauere Modellierung der Liquiditätscashflows gibt es komplexere Methoden mit mehr Parametrisierungsfreiheiten. Dafür werden jedoch hochqualitative Daten auf feingranularer Ebene benötigt, um einen echten Vorteil im Vergleich mit den einfachen parametrischen Verfahren realisieren zu können. Außerdem ist gemäß dem Proportionalitätsprinzip abzuwägen, ob der Mehraufwand den zusätzlichen Nutzen rechtfertigt.

Sind diese Voraussetzungen jedoch erfüllt, sollte der Einsatz von fortgeschrittenen Zeitreihenmodellen durchaus in Erwägung gezogen werden. Insbesondere ARIMA-basierte Verfahren (Autoregressive Integrated Moving Average) gewinnen im Kontext der Modellierung von Liquiditätscashflows immer mehr an Relevanz und Beachtung. Dabei werden Zeitreihen unter der Annahme prognostiziert, dass jeder Wert zu einer gewissen Zeit t eine Abhängigkeit von den Werten der Zeitreihe vor t aufweist. So kann das Modell mithilfe historischer Zeitreihen approximiert und basierend darauf fortgeschrieben (prognostiziert) werden.

Es gibt zahlreiche Erweiterungen zum ARIMA-Modell. Eines davon ist das ARIMAX-Modell, in dem exogene Variablen ergänzt werden, um einen externen Trend zu parametrisieren. Zwar werden auch durch das ARIMA-Modell Trends abgebildet, jedoch nur solche, die auch in der historischen Zeitreihe intrinsisch vorhanden sind. Wie oben bereits erwähnt, sind es jedoch externe Faktoren, die das Volumen an Sichteinlagen treiben (z. B. Zinsanstieg, Inflation). Da äußere Einflüsse die Rahmenbedingungen über den Zeitverlauf verändern, können solche Trends auch nur über exogene Variablen dargestellt werden.

Darüber hinaus gibt es das SARIMA-Modell, in welchem ein zusätzlicher saisonaler Verlauf der Zeitreihe approximiert wird. Sichteinlagen haben normalerweise periodische Verläufe mit einer monatlichen Frequenz, die durch das SARIMA-Modell hervorragend abgebildet werden können. Im erweiterten SARIMAX-Modell werden sowohl exogene Trends als auch saisonale Verläufe berücksichtigt.

Während die Modellparameter durch Kleinste-Quadrate- und Maximum-Likelihood-Methoden objektiv geschätzt werden können, ist für eine zuverlässige Prognose der Zeitreihe die richtige Auswahl der Spezifikationsparameter von hoher Bedeutung und stellt bei der Modellierung die größte Herausforderung dar. Auch die Entscheidung, ob ein ARIMA-, ARIMAX-, SARIMA- oder SARIMAX-Modell zu verwenden ist, ist nicht immer trivial. Das SARIMAX-Modell bietet nicht zwingend eine zuverlässigere Prognose als das ARIMA-Modell, und es bedarf einer intensiven Abstimmung im Hinblick auf die vorhandenen Daten.

Es besteht die Möglichkeit, für verschiedene Spezifikationsparameter einen Best-Fit-Vergleich mit den historischen Daten durchzuführen und so die statistisch beste Auswahl für die vorliegenden Daten weitgehend automatisiert und mit wenig Aufwand zu ermitteln. Dies ermöglicht es, bei diesem Ansatz mit sehr wenig subjektiv getroffenen Annahmen zu arbeiten.

Liquiditätsmanagement: Ansätze zur Ableitung von Abflussannahmen Abbildung 2: Gegenüberstellung der Ansätze zur Ableitung von Abflussannahmen

Der Vergleich mit den einfachen parametrischen Verfahren zeigt, dass mit den ARIMA-basierten Methoden signifikant genauere Ergebnisse in der Prognose erzielt werden können. Insbesondere, wenn Datenbestände über einen langen Zeitraum in kurzen Abständen (am besten täglich) vorhanden sind, kommen die Vorteile zum Tragen.

Künstliche Intelligenz (kurzer Ausblick)

Eine weitere Methode, die für die Prognose der Liquiditätscashflows denkbar wäre, ist der Forecast anhand eines Modells, das durch maschinelles Lernen generiert wird. Künstliche Intelligenz (KI) ist derzeit ein sich rasant entwickelndes Themengebiet, und die Anwendung wird in den verschiedensten Bereichen erprobt und geprüft (vgl. z. B. BankingHub-Artikel „LCR-Prognose mit KI“).

Gegenüber den zuvor beschriebenen Modellansätzen bietet diese Methode den echten Vorteil, dass das KI-Modell zusätzlich zu den historischen Bestandsdaten mit beliebigen weiteren Daten trainiert werden kann. Dadurch wird ermöglicht, dass weitere Einflussfaktoren (z. B. Kundencharakteristika oder aktuelle Marktdaten) für die Prognose der Liquiditätscashflows berücksichtigt werden.

Die größten Herausforderungen in der Implementierung bestehen zumeist in unzureichenden Datengrundlagen und einer Intransparenz der Modellergebnisse („Black-Box“-Algorithmen). Insbesondere die aufsichtsrechtliche Erwartung, dass die eingesetzten Verfahren nachvollzogen werden können, ist bei KI-Modellen somit grundsätzlich nur bedingt erfüllt, und eine Interpretation der Ergebnisse kann sich schwierig gestalten.

Herausforderungen bei der Umsetzung

Neben den beschriebenen methodischen Herausforderungen finden sich bei der Umsetzung auch viele praktische Hürden. Dies beginnt bei der benötigten Datenbasis: Oftmals sind gerade auf Produktebene keine langen Historien oder nur solche auf Monatsbasis verfügbar, sodass die Stichproben zu klein für verlässliche Prognosen sind. Liegen hingegen lange Zeitreihen vor, so sollte deren Repräsentativität kritisch hinterfragt werden.

Auch Saisonalitäten wie z. B. der Eingang eines dreizehnten Monatsgehalts sollten, sofern materiell, abgebildet werden. Weitere exogene Faktoren wie das Zinsniveau, BIP, Inflation etc. sollten abhängig von ihrer ermittelten Signifikanz berücksichtigt werden. Für die zugehörigen statistischen Tests ist wiederum eine gute Datenbasis erforderlich.

Eine Kunst besteht zudem in der richtigen Wahl der Portfolioschnitte, damit einerseits die Spezifika der verschiedenen Produkte und Kundensegmente modelliert werden. Andererseits sollte auch eine Materialitätsschwelle gewahrt bleiben, und einzelne Kunden sollten nicht das Verhalten eines Portfolios bestimmen, da dadurch die Möglichkeit einer statistischen Modellierung verloren geht. Insbesondere im Wholesale Banking sollte die Notwendigkeit geprüft werden, das Liquiditätsrisiko sehr großer Geschäfte gesondert zu modellieren.

Die Dimension des gewählten Modells sollte sich gemäß dem Proportionalitätsprinzip am Geschäftsmodell und an der Komplexität des jeweiligen Instituts orientieren. Es kann durchaus vorteilhaft sein, einem eher einfachen Ansatz gegenüber einem sehr komplexen Modell den Vorrang zu geben, wenn damit trotzdem eine gute Prognosegüte erzielt werden kann.

Sowohl betriebswirtschaftlich als auch aufsichtlich ist es notwendig, die Ergebnisse zu interpretieren, um sie sinnvoll in die Banksteuerung einbinden zu können. Hierfür ist erforderlich, dass auch neue Entwicklungen wie z. B. Zinsportale und Vergleichsplattformen, die zukünftig eine geringere Kundentreue erwarten lassen, in einem Modell adäquat berücksichtigt werden.

Um gegenläufige Steuerungsimpulse zu vermeiden, ist es ebenfalls wichtig, eine bereichsübergreifende, einheitliche Modellierung vorzunehmen. Ein Beispiel hierfür ist insbesondere die Sicherstellung der Konsistenz und Überleitbarkeit der im Risikocontrolling sowie im FTP (Funds Transfer Pricing) verwendeten Modellierungsannahmen und Cashflows.

Modellierungsansätze sind nach institutsspezifischen Begebenheiten zu evaluieren

Wir haben unterschiedliche quantitative Ansätze zur Modellierung von Liquiditätscashflows bei variablen Produkten verglichen und stellen fest, dass es keine universal optimale Lösung gibt. Hier sind der Aufwand und Nutzen der jeweiligen Ansätze für jedes Institut individuell abzuwägen.

Insbesondere die Bereitstellung von qualitativ hochwertigen Daten stellt einige Institute vor Herausforderungen. Ist eine solche Datenbasis nicht verfügbar, wird auch ein sehr fortgeschrittenes Zeitreihenmodell keine signifikant genaueren Ergebnisse liefern können, und es empfiehlt sich, einfachere parametrische Verfahren anzuwenden. Sind jedoch genauere Prognosen gewünscht, unter Berücksichtigung von nichtstationären Strukturen wie z. B. Saisonalitäten oder auch exogenen Faktoren, eignen sich bei vorhandener qualitativ hochwertiger Datenbasis fortgeschrittenere Methoden wie die ARIMA­-basierten Verfahren.

Abkürzungen

ARIMA = Autoregressive Integrated Moving Average
ARIMAX = Autoregressive Integrated Moving Average with Exogenous Input
BaFin = Bundesanstalt für Finanzdienstleistungsaufsicht
BTR = Besonderer Teil Risikosteuerungs- und -controllingprozesse
EBA = European Banking Authority (Europäische Bankenaufsichtsbehörde)
ECB/EZB = European Central Bank/Europäische Zentralbank
FTP = Funds Transfer Pricing
ICAAP = Internal Capital Adequacy Assessment Process
ILAAP = Internal Liquidity Adequacy Assessment Process
IRRBB = Interest Rate Risk in the Banking Book
KI = Künstliche Intelligenz
LCR = Liquidity Coverage Ratio (Liquiditätsdeckungsquote)
MaRisk = Mindestanforderungen an das Risikomanagement
MFI = Monetäre Finanzinstitute
SARIMA = Seasonal Autoregressive Integrated Moving Average
SARIMAX = Seasonal Autoregressive Integrated Moving Average with Exogenous Input

[1] IRRBB: EBA, Leitlinien zur Steuerung des Zinsänderungsrisikos bei Geschäften des Anlagebuchs, 2018.
[2] ILAAP: EZB, Leitfaden der EZB für den bankinternen Prozess zur Sicherstellung einer angemessenen Liquiditätsausstattung (Internal Liquidity Adequacy Assessment Process – ILAAP), 2018.
[3] Bankenstatistik: Deutsche Bundesbank, Einlagen und aufgenommene Kredite der Banken (MFIs) in Deutschland von inländischen Unternehmen und Privatpersonen/alle Bankengruppen, 2020.
[4] MaRisk: BaFin, Rundschreiben 10/2021 (BA) – Mindestanforderungen an das Risikomanagement – MaRisk, 2021.

Sprechen Sie uns gerne an!

Constanze Alves / Autorin BankingHub

Constanze Alves

Senior Managerin Office Hamburg
Bernhard Kretschmar/ Autor BankingHub

Bernhard Kretschmar

Senior Manager Office Frankfurt
Kwang Seong Kim

Kwang Seong Kim

Manager Office Frankfurt

Artikel teilen

Kommentare

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

BankingHub-Newsletter

Analysen, Artikel sowie Interviews rund um Trends und Innovationen
im Banking alle 2 Wochen direkt in Ihr Postfach