Automatisierte semantische Analyse regulatorischer Texte

Überblick

Umfang und Komplexität regulatorischer Anforderungen stellen Banken bereits bei deren Analyse vor erhebliche Herausforderungen. Zudem müssen Banken – oft ad-hoc – Anfragen von Regulatoren bearbeiten und sich zeitnah zu Konsultationspapieren äußern.

Verfahren aus den Bereichen NLP und Machine Learning ermöglichen die effektive und effiziente Nutzung vorhandener Wissensressourcen.

Unsere Applikation Regulytics® ermöglicht die automatisierte Analyse regulatorischer sowie interner Texte nach inhaltlichen Gesichtspunkten.
Die App liefert keine umständliche allgemeine Berichte, sondern prägnante, ​​maßgeschneiderte und sofortige Informationen zu inhaltlichen Ähnlichkeiten.
Damit können regulatorisch relevante Texte objektiv in den Gesamtkontext eingeordnet werden. Ähnliche Paragraphen in Regularien und internen Dokumenten können ebenso ermittelt werden wie Unterschiede in verschiedenen Dokument-Versionen.
Finanzdienstleister können einen kostenlosen Test-Account für die Online-Version von Regulytics beantragen.
Zusätzlich bieten wir eine freie Regulytics-Demo-Version zur Analyse der Bauordnungen der verschiedenen deutschen Bundesländer: Link

Regulatorische Herausforderungen

Regularien wie IFRS 9, BCBS 239, FTRB, IRRBB oder die MaRisk-Novelle 2017 erfordern grundlegende Änderungen in Methoden, Prozessen und/oder Systemen der Banken.
Viele Regularien haben weitreichende Auswirkungen auf die Risiken, das Eigenkapital und damit das Geschäftsmodell der betroffenen Banken.
Die große Anzahl der finalen bzw. in Konsultation befindlichen Regularien gestaltet ein Monitoring der Anforderungen und Auswirkungen schwierig.

Die Regularien können verschiedene, miteinander zusammenhängende, Bereiche der Banken, wie Risk, Handel, Finance oder die IT betreffen.
Zudem existieren auch Zusammenhänge zwischen den Regularien; Gaps zu einer Anforderung entsprechen i.d.R. auch Gaps zu weiteren Anforderungen.
Die i.A. unterschiedliche Gesetzgebung in den verschiedenen Jurisdiktionen erhöht die Komplexität nochmals beträchtlich.

Innerhalb der Banken finden Auswirkungsanalysen und Vorstudien statt, um die Relevanz der Projekte einzustufen.
Zahlreiche Beratungsunternehmen führen Vorstudien sowie die eigentlichen Umsetzungsprojekte durch, die sich oft durch lange Laufzeiten und einen hohen Ressourcenbedarf auszeichnen.
Projekte binden interne Ressourcen und verschärfen Personalengpässe.
Externe Unterstützung ist kostspielig und erhöht den Koordinationsaufwand, insb. bei mehreren Dienstleistern.
Fehler in Vorstudien und Projekt-Anfangsphasen lassen sich nur schwer korrigieren.
Aufgrund der hohen Komplexität besteht Risiko, dass Auswirkungen und Interdependenzen nicht rechtzeitig erkannt werden.

Wissensressourcen zur Aufgabenbewältigung

Als externe Ressourcen stehen den Banken zunächst Originaltexte der Regularien sowie der Konsultationen zur Verfügung, die für gewöhnlich frei erhältlich sind. Zahlreiche einschlägige Online-Portale veröffentlichen regelmäßig Artikel über Inhalt und Auswirkungen der regulatorischen Anforderungen. Verschiedene Beratungsunternehmen, insbesondere die Big 4, stellen den Banken außerdem freie Artikel, Whitepapers und Newsletters zur Verfügung. Somit kann dann Internet in gewissem Umfang bereits als Medium für Vorab-Analysen aufgefasst werden.

Intern haben die Banken bereits umfangreiche Erfahrungen durch bereits abgeschlossene oder aktuell laufende Projekte gesammelt, wie Projektdokumentationen oder Lessons Learned. Banken verfügen zusätzlich über umfangreiche Dokumentationen der eingesetzten Methoden, Prozesse und Systeme sowie der Zuständigkeiten und organisatorischen Gegebenheiten. Interne Blogs, etc. bündeln darüber hinaus die Expertise der Mitarbeiter. Teil-Analysen sind damit bereits in beträchtlichem Umfang vorhanden.

Vorteile einer automatisierten Untersuchung

Geschwindigkeitssteigerung

Automatische Analysen können per definitionem sehr schnell und standardisiert durchgeführt werden.
Selbst mit herkömmlichen Laptops können binnen Minuten semantische Ähnlichkeiten in Dutzenden komplexer Regularien analysiert werden.
Damit können – etwa im Falle von Konsultationspapieren – Zuständigkeiten und Auswirkungen rechtzeitig erkannt und in die Stellungnahmen einbezogen werden.

Ressourcenschonung

Unsere Lösung ist – je nach Ausprägung – ohne spezielle Hard- und Software-Anforderungen lauffähig.
Der personelle Aufwand für die Nutzung und ggf. Weiterentwicklung ist äußerst gering und von der Anzahl der betrachteten Regularien weitgehend unabhängig.
Engpässe werden reduziert und Experten können sich auf anspruchsvolle Tätigkeiten fokussieren.
Entsprechend lassen sich Projektkosten reduzieren.

Objektivität

Die Ähnlichkeiten zwischen den Regularien auf Gesamt- und Paragraphen-Ebene liegen quantitativ vor und sind jederzeit reproduzierbar.
Unterschiede durch subjektive Präferenzen sind damit praktisch ausgeschlossen.
Analysen lassen sich nachvollziehbar dokumentieren.
Ergebnisse von Vorstudien und Aussagen externer Dienstleister können unvoreingenommen überprüft werden.

Fehlerreduktion

Automatische Analysen stellen eine effiziente Zusatzkontrolle dar.
Nichttriviale – und möglicherweise übersehene – Interdependenzen zwischen Regularien können identifiziert und berücksichtigt werden.
Insbesondere Flüchtigkeitsfehler sowie das Übersehen ggf. wichtiger Passagen lassen sich damit verringern.
Ggf. unbemerkte Gaps und Impacts können darüber hinaus entdeckt werden.

Wissensnutzung mittels Topic Analysis

Methoden und Tools

Die Verfahren des Natural Language Processing (NLP) im hier verwendeten Sinne ermöglichen semantische Analysen von Texten anhand darin vorkommender Themen (Topics) zur Identifizierung von Ähnlichkeiten bei beliebiger Granularität.
Bei der verwendeten Methode Latent Semantic Analysis (LSA bzw. Latent Semantic Indexing, LSI) erfolgt eine Reduktion der betrachteten Begriffe auf eine vorgegebene Anzahl von Themen und hierdurch eine Abbildung von Texten auf einen „semantischen Raum“.
Die Topic-Ermittlung entspricht dabei einem Unsupervised Learning-Prozess anhand vorgegebener Dokumente.
Neue Texte und Text-Komponenten können anschließend auf semantische Ähnlichkeiten hin untersucht werden.
Die Analysen erfordern Programme auf der Basis entsprechender Analysetools, wie z.B. Python oder R.

Analyse

Zunächst werden die Einheiten bestimmt anhand derer die Texte zu untersuchen sind (Sätze, Paragraphen, usw.) .
Mittels eines „Trainings-Textes“ wird eine Abbildung auf eine vorgegebene Anzahl von Topics ermittelt („Modell“).
Die zu untersuchenden Texte werden ebenfalls mittels des Modells abgebildet und anschließend quantitativ auf Ähnlichkeiten hin untersucht.
Wie rechts skizziert, lässt sich das Verfahren automatisieren und effizient auf eine große Anzahl von Texten anwenden.

Identifizierung ähnlicher Paragraphen

Vorgehen bei der Analyse regulatorisch relevanter Texte

Das Vorgehen für die Analyse auf Gesamt- und Paragraphen-Ebene richtet sich nach den jeweiligen bankfachlichen Zielen. Wir unterstützen Sie bei Detailfragen und bei der Erarbeitung spezifischer Lösungen.

Analyse regulatorisch relevanter Texte

Usecases

Im folgenden werden drei mögliche Analysen regulatorischer Texte skizziert, die sich aufgrund der jeweiligen Zielsetzung unterscheiden. Die Analysen sind problemlos auf interne Texte erweiterbar.

Usecase 1: Identifizierung von Ähnlichkeiten

Bei der Analyse wurden die Regularie Basel II sowie die oft als „Basel IV“ bezeichnete Regularie Basel III: Finalising post-crisis reforms betrachtet.
Bereits der allgemeine Vergleich weist auf eine starke Kosinus-Ähnlichkeit zwischen diesen beiden Texten hin (s. Radar-Diagramm).
Der Matrix-Vergleich über alle Paragraphen liefert eine Übereinstimmung über weite Teile (helle Diagonale, s. Matrix-Diagramm).
Ein Abgleich auf Paragraphen-Ebene liefert zahlreiche fast identische Abschnitte bzgl. Kreditrisiken (s. Tabelle).

Radar-Diagramm auf Gesamt-Ebene
Ähnlichkeitsmatrix auf Paragraphen-Ebene
Ähnliche Paragraphen

Usecase 2: Ermittlung von Unterschieden

Es erfolgte ein Vergleich der deutschsprachigen MaRisk aus den Jahren 2017 und 2012.
Wie anhand des allgemeinen Vergleichs (Radar-Plot) sowie des Matrix-Vergleichs über alle Paragraphen (helle Diagonale) zu sehen, sind die Texte größtenteils identisch.
Unterbrechungen der Hauptdiagonalen (roter Pfeil) weisen jedoch auch auf einige Neuerungen hin.
Ein Ähnlichkeitsvergleich über alle Regularien liefert dabei den Punkt „AT 4.3.4“ als größte Änderung gegenüber MaRisk 2012.

Radar-Diagramm auf Gesamt-Ebene
Ähnlichkeitsmatrix auf Paragraphen-Ebene
“Neuartige” Paragraphen

Usecase 3: Finden ähnlicher Paragraphen

Es wurden die Regularie Basel III: Finalising post-crisis reforms („Basel IV“) sowie Basel III (BCBS 189) betrachtet.
Trotz Unterschiede ist ein Bereich relativ großer Ähnlichkeit auf Paragraphen-Ebene erkennbar (roter Pfeil, unten).
Zur näheren Analyse dieses Bereichs wurde ein entsprechender Paragraph aus Basel IV ausgewählt und hierzu die ähnlichsten Paragraphen aus Basel III ermittelt.
Wie in der Tabelle unten aufgeführt beziehen sich die entsprechenden Paragraphen aus Basel III und IV auf die CVA.

Ähnlichkeitsmatrix auf Paragraphen-Ebene
Ähnliche Ziel-Paragraphen

 

 

 

 

 

 

Angebotsstufen für einen regulatorischen Einsatz von Machine Learning-Verfahren

RiskDataScience ermöglicht Banken die beschriebenen Verfahren effizient und institutsspezifisch einzusetzen und weiterzuentwickeln. Entsprechend den jeweiligen Anforderungen werden dazu folgende drei Ausbaustufen vorgeschlagen.

Stufe 1: Methodik

  • Einweisung in Methodik zum Latent Semantic Indexing regulatorischer Texte
  • Übergabe und Installation der vorhandenen Python-Lösung zum automatisierten Einlesen und Zerlegen von Dokumenten sowie zur semantischen Analyse per LSI
  • Übergabe und Dokumentation der Visualisierungs- und Auswertetechniken

Bank ist in der Lage Methodik zur Analyse regulatorischer Anforderungen eigenständig zu ver-wenden und weiterzuentwickeln

Stufe 2: Customizing

  • Stufe 1 und zusätzlich
  • Anpassung von Analyse-Einheiten (Dokument-Gruppen) gemäß Analysezielen der jeweiligen Bank
  • Analyse der konkreten Regularien, Projekte, Methoden, Prozesse und Systeme zur Identifizierung optimaler Einsatzmöglichkeiten
  • Entwicklung von Prozessen zur Erreichung der Analyseziele
  • Kommunikation und Dokumentation der Ergebnisse an alle Stakeholder

Bank verfügt über gecustomizte Verfahren und Prozesse zur Analyse regulatorischer Anforderungen, etwa bzgl. Zuständigkeiten oder Methoden

Stufe 3: IT-Lösung

  • Stufe 1, Stufe 2 und zusätzlich
  • Spezifikation aller Anforderungen für eine automatisierte, ggf. web-basierte IT-Lösung
  • Vorschlag und Kontaktierung möglicher Anbieter
  • Unterstützung bei der Anbieter- und Tool-Auswahl
  • Unterstützung bei der Planung der Umsetzung
  • Fachliche und koordinative Begleitung des Umsetzungsprojekts
  • Fachlicher Support nach Implementierung der IT-Lösung

Bank verfügt über automatisierte IT-Lösung zum effizienten semantischen Abgleich regulatorisch relevanter Textkomponenten.

Je nach Kundenwunsch ist eine flexible Ausgestaltung möglich. Gerne erläutern wir unseren Ansatz auch im Rahmen eines Vorab-Workshops.

Zudem bieten wir mit Regulytics® eine Web-Applikation zur automatisierten Analyse von Regularien auf Gesamt- und Paragraphen-Ebene.

Kontakt

Dr. Dimitrios Geromichalos
Founder / CEO
RiskDataScience UG (haftungsbeschränkt)
Theresienhöhe 28, 80339 München
E-Mail: riskdatascience@web.de
Telefon: +4989244407277, Fax: +4989244407001
Twitter: @riskdatascience

Machine Learning-Based Classification of Market Phases

Introduction

The experience of the recent years as well as research results and regulatory requirements suggest the consideration of market regimes. Nevertheless, the largest part of today’s financial risk management is still based on the assumption of constant market conditions.
Currently, neither “stressed” market phases nor potential bubbles are determined in an objective way.
Machine learning procedures, however, enable a grouping according to risk aspects and a classification of the current market situation.
RiskDataScience has already developed procedures to identify market phases.
Market regimes can be determined on the basis of flexible criteria for historical time series. The current market conditions can be assigned to the respective phases. Thus, it is possible to determine if the current situation corresponds to past stress or bubble phases. In addition, historic stress scenarios can be detected in a systematic way.

Market Phases

In contrast to the efficient market theory, markets are characterized by exaggerations and panic situations (new economy, real estate bubbles,…).
Crises exhibit their own rules – like increased correlations – and behave differently from “normal” phases. In the curse of the crises since 2007/2008, the situation has changed dramatically several times (negative interest rates, quantitative easing,…).

Regulators have realized that market situations can differ in a significant way and require the consideration of stressed market phases e.g. in the

  • determination of “stressed VaR” periods
  • definition of relevant stress scenarios

In the conventional market risk management of financial institutions, however, still only uniform market conditions are considered (e.g. in conventional Monte Carlo simulations).
Historic simulations implicitly consider market phases, but they don’t provide assertions which pase applies to specific situations.
Finally, models like GARCH or ARIMA could’t establish themselves outside academic research.

The neglection of market phases implies several problems and risks.
First, a non-objective determination of stressed market phases for regulatory issues can lead to remarks and findings by internal and external auditors. Thus, eventually sensible capital relief can be denied since a less conservative approach can’t be justified in an objective way.
Also, ignoring possibly dangerous current market situations increases the risk of losses by market price fluctuations. In addition, bubbles are not detected in a timely manner and the “rules” of crises (like increased correlations) are not considered in an appropriate way.
On the other hand, a too cautious approach may result in missed opportunities.

Machine Learning Approaches

For the analysis of the relevant market data, several data science / machine learning algorithms can be considered and implemented with tools like Python, R, Weka or RapidMiner. Here, the following groups of algorithms can be discerned:

  • Unsupervised learning algorithms: These algorithms can be used for the determination of “natural” clusters and the grouping of market data according to predefined similarity criteria. This requires appropriate algorithms like kmeans or DBSCAN as well as economic and financial domain expertise. Also, outlier algorithms can be used to detect anomalous market situations, e.g. as basis for stress test scenarios.
  • Supervised learning algorithms: The algorithms (e.g. Naive Bayes) are “trained” with known data sets to classify market situations. Then, new data – and especially the current situation – can be assigned to the market phases.

For a risk-oriented analysis, market data differences (e.g. in the case of interest rates) or returns (e.g. in the case of stock prices) must be calculated from the market data time series as a basis for the further analysis. Further, a “windowing” must be conducted, viz. the relevant values of the previous days must be considered as additional variables.

Use Case: Analysis of Illustrative Market Data

The analysis described below was based on a market data set consisting of the DAX 30 index, the EURIBOR 3M interest rate, and the EURUSD FX rate. The time period was end of 2000 till end of 2016. For the calculations, consistenly daily closing prices were used as basis for the return (DAX 30, EURUSD) and difference calculations (EURIBOR 3M). Eventual structural breaches were adjusted and missing return values were replaced by zeros. The windowing extended to the last 20 days.

Time series of analyzed market data

The data set was analyzed with the clustering algorithms kmeans and DBSCAN. As a result, most points in time could be assigned to a large “normal cluster”. The rest of the data points fell into a smaller “crisis” cluster.
Since – as it was observed – crisis phases often precede “real” crashes, the procedure could be helpful as “bubble detector”.

Identified market phases

The main identified outliers were the

  • spring of 2001: Burst of the dotcom bubble
  • autumn 2001: September 11
  • autumn 2008: Lehman insolvency
    The current time period is not classified as crisis, the extraordinary situation of negative interest rates counsels caution, however.

Based on a training set of 3,000 points of time, the classification algorithms were trained and applied on a test set of 1,000 points.
An appropriate simple algorithm was Naive Bayes; with this algorithm accuracies of over 90% were reached in in-sample as well as out-of-sample tests.

Hence, an efficiend distinguishing of market phases is already realized and a usage as bubble detector possible after economically and financially sound validations.

 

The methods can be enhanced to capture more complex cases and issues, e.g. for specialized markets like the electricity market as well as patterns and rules characteristic for the high-frequency trading (HFT).

We are developing respective methods and tools and support our customers in obtaining an overall perspective of the data in use.

Contact

Dr. Dimitrios Geromichalos
Founder / CEO
RiskDataScience UG (haftungsbeschränkt)
Theresienhöhe 28, 80339 München
E-Mail: riskdatascience@web.de
Telefon: +4989244407277, Fax: +4989244407001
Twitter: @riskdatascience

The Risk of Data Science – Calculating a Classification Value at Risk

Classification algorithms are widely used for detecting a diverse amount of possibly negative events, like fraud or insolvencies.
The reliability of the classifications is generally measured with key figures like accuracy, precision or recall.

Companies using classification algorithms, however, are generally also interested in the actual financial extent of the damage.
Here, they also are often not only interested in the expected extent, but also in the possible extent for negative worst case scenarios.
Hence, classical risk figures for classification predictions (like the Value at Risk; VaR) are very useful.

The follwing text describes an approach for obtaining a Classification VaR (for False Negatives) from a conventional confusion matrix.

The calculation is based on the following assumptions:

  • The False Negative rate is known from the model validation
  • False Negatives are independent and binomially distributed
  • The extent (for single events) and distribution of the possible damages is known

Based on these assumptions, the Classification VaR can be calculated via a Monte Carlo simulation. Here, one has to take care that the calculations can become very fast very time consuming, since many scenarios are necessary to capture high confidence levels.

RiskDataScience developed a Monte Carlo simulation for calculating the Classification VaR and applied it to the following case.

Starting from a known confusion matrix, the appropriate TP, TN, FP and FN rates are calculated. It is assumed that the detection of harmful events (True Positives) prevents the company from financial losses. However, damages are caused due to undetected False Negatives.

The damage extents of the example belong to several known damage classes, each one occuring with a known probability of 10%.

The new – unknown – sample consists of 17,926 instances. In order to calculate the Classification VaR at a confidence level of 95%, a Monte Carlo simulation with 1,000 scenarios was started. In each scenario, the value for each instance was randomly obtained and summed up. The scenarios were sorted and the VaR was directly retrieved from the appropriate scenario.

In this case, the Classification VaR at 95% is € 42 mn, while the mean expected loss would be just € 36 mn; hence one expects at least an additional damage of € 6 mn in the 5% worst case scenarios.

The method can be enhanced to capture more complex cases.

We have developed respective methods and tools and support our customers in obtaining an overall risk perspective of the data science procedures in use.

Contact

Dr. Dimitrios Geromichalos
Founder / CEO
RiskDataScience UG (haftungsbeschränkt)
Theresienhöhe 28, 80339 München
E-Mail: riskdatascience@web.de
Telefon: +4989244407277, Fax: +4989244407001
Twitter: @riskdatascience

Machine Learning-basiertes Kreditrating-Frühwarnsystem

Übersicht Problemstellung und Angebot

Als wichtige Risikoart werden Kreditrisiken mit anspruchsvollen Rating-Verfahren quantifiziert. Aufgrund der aufwendigen Erstellung und fehlender aktueller Bilanzdaten liegen Ratings jedoch nur zeitverzögert vor. Für aktuelle Kreditrisikosignale wurden von Banken daher bereits marktdaten-basierte Frühwarnsysteme eingeführt, die aber keine Indikationen im Falle fehlender Marktdaten liefern können.
Andererseits liefern im Internet vorhandene Unternehmensnachrichten oft wichtige Informationen über Probleme und Schieflagen (siehe auch Nachrichtenbasierte Frühwarnsysteme).
RiskDataScience verfügt über bereits entwickelte Algorithmen zur automatischen Ermittlung und Klassifizierung von Nachrichten-Texten hinsichtlich Insolvenz-Relevanz (News-Based Early Warning).
Damit können Banken aus Nachrichtentexten wertvolle Zusatz-Informationen über drohende Insolvenzen gewinnen. Eine Früherkennung von Kreditrisiken ist damit auch für nichtgelistete Unternehmen ohne direkte Marktdaten möglich.

Kreditrisiko-Messung

Allgemeines

Unter Kreditrisiken versteht man Risiken durch Kreditereignisse, wie Zahlungsausfall, Zahlungsverzug, Herabstufung der Kreditwürdigkeit oder Einfrierung der Währung.
Eine weitere Unterscheidung betrifft die Einteilung in Emittenten- (bei Anleihen), Kontrahenten- (bei Derivate-Geschäften) und – die im Folgenden betrachteten – Kreditausfallrisiken von Kreditnehmern i.e.S.
Kreditrisiken bilden oft das größte Bank-Risiko und müssen – neben Markt- und operationellen Risiken – gemäß Basel II/III mit Eigenkapital unterlegt werden.

Eine häufig herangezogene Kennzahl zur Quantifizierung  von Kreditrisiken ist der erwartete Verlust (Expected Loss) eines Kredits. Dieser ergibt sich im einfachsten Fall als Produkt aus

  • PD: Probability of Default, Ausfall-Wahrscheinlichkeit
  • LGD: Loss Given Default, eins minus Wiederverwertungsrate
  • EaD: Exposure at Default, ausstehendes Kreditvolumen

Externe und interne Kreditratings messen hauptsächlich die PD (und z.T. den LGD) und werden mit aufwendigen Verfahren ermittelt.

Ermittlung und Früherkennung

Die Verfahren zur Ermittlung der PD erfordern fundierte statistische Analysen auf Basis von

  • quantitativen Bilanzkennzahlen wie Verschuldungsgrad, Eigenkapitalquote und EBIT
  • qualitativen Analysten-Kennzahlen wie Qualität des Managements, Zukunftsaussichten und Marktstellung
  • allgemeinen Marktdaten wie Zinsen, Inflation und Wechselkursen.

Die Ratingmodelle müssen regelmäßig anhand tatsächlicher Kreditereignisse validiert und gegebenenfalls angepasst werden.
Kreditratings liegen deshalb meist verzögert – oftmals nur jährlich – vor.
Zur Behebung dieses Problems wurden marktdatenbasierte Frühwarnsysteme eingeführt, die Signale auf der Basis signifikanter Änderungen von Aktienkursen, Credit Spreads oder weiterer mit dem Rating korrelierter Marktdaten liefern. Im Allgemeinen können damit allerdings nur systematische bzw. Risiken gelisteter Unternehmen erkannt werden.

Informationen aus Nachrichten

Allgemeines

Die Gründe für Insolvenzen sind oft unternehmensspezifisch (idiosynkratisch) und können nicht aus allgemeinen Marktentwicklungen abgeleitet werden. Beispiele hierfür sind

  • Betrugsfälle durch das Management
  • Insolvenz eines wichtigen Kunden bzw. Lieferanten
  • Auftreten eines neuen Konkurrenten

Negative Ereignisse wie Werkschließungen, Kurzarbeit, Ermittlungen und Anklagen gehen dabei der eigentlichen Insolvenz zum Teil um mehrere Monate voraus.

Im Falle nichtgelisteter Unternehmen ist dennoch keine marktdatenbasierte Frühwarnung möglich. Hingegen liefern Nachrichten auch in diesen Fällen aktuelle und oftmals insolvenzrelevante Informationen.
Nachrichtenportale, Blogs, Soziale Medien und insbesondere Lokalzeitungen informieren dabei online über Probleme von Unternehmen.
Durch die effiziente Nutzung von Online-Texten ist somit eine Erweiterung der Frühwarnung auf nichtgelistete Unternehmen möglich.

Effiziente Nachrichten-Analyse

Verfahren zur effizienten Analyse von Online-Texten sind Voraussetzung um die relevanten Nachrichten zu identifizieren und darauf aufbauend mögliche Insolvenzen zu antizipieren. Hierfür notwendig sind

  • eine rechtzeitige Identifizierung hunderter Datenquellen (Websites, RSS-Feeds, etc.)
  • ein Crawlen der relevanten Nachrichten zu allen Kunden anhand vorgegebener Muss- und Ausschlusskriterien
  • eine zeitnahe Klassifikation der relevanten Texte anhand möglicher Insolvenzrisiken
  • eine sofortige Analyse und Visualisierung der Ergebnisse zur Erkennung von Risiken

Bereits realisierte Machine Learning-Algorithmen dienen als Basis für diese zunächst unmöglich erscheinende Aufgabe.

Wissensnutzung durch Machine Learning-Verfahren

Crawlen

Im ersten Schritt müssen alle relevanten Nachrichtenquellen (z.B. Online-Zeitungen) anhand einer hinreichend großen Stichprobe zu untersuchender Unternehmen identifiziert und irrelevante Quellen möglichst ausgeschlossen werden.
Die Gewinnung der relevanten Texte aus diesen Quellen kann über folgende Verfahren erfolgen

  • Suchabfragen per Crawler (z.B. Google, Bing oder Bank-Eigenentwicklung) anhand vorgegebener Kriterien
  • direktes Abgreifen der Nachrichten per RSS-Feeds

Die Nachrichten sind dabei nach Relevanz zu filtern. Zur Vermeidung von Verwechslungen aufgrund des Namens oder irrtümlicher Textbausteine (z.B. bzgl. Aktien) sind Wortfilter und ggf. komplexe Textanalysen notwendig.

Klassifikation

Für die Klassifizierung der gewonnenen Nachrichtentexte kommen verschiedene Text Mining-Methoden aus dem Bereich Data Science / Machine Learning in Betracht. Beim Supervised Learning wird dabei wie folgt vorgegangen

  • zunächst werden manuell die Wörter ermittelt, die für die Klassifikation irrelevant sind („Stopwords“)
  • die Algorithmen werden dann mit bekannten Datensätzen darauf „trainiert“ Texte Kategorien zuzuordnen
  • neue Texte können anschließend bekannten Kategorien mit bestimmten Konfidenzen zugeordnet werden

Methodisch sind dabei folgende Schritte durchzuführen

  • aus den gefilterten Texten werden signifikante Wortstämme/Wortstamm-Kombinationen („n-grams“) ermittelt
  • die Texte werden als Punkte in einem hochdimensionalen Raum (mit den n-grams als Dimensionen) abgebildet
  • Machine Learning-Verfahren ermitteln Gesetzmäßigkeiten zur Trennung der Punkte nach Kategorien. Hierfür bieten sich dezidierte Algorithmen wie naive Bayes, W-Logistic oder Support Vector Machine an.

Die Analysen erfordern Programme auf der Basis entsprechender Analysetools, wie z.B. R oder RapidMiner.

Anwendungsbeispiel

Für ca. 50 insolvent gegangene Unternehmen und 50 nicht-insolvente Referenzunternehmen wurden Google News-Nachrichtentexte für einen mehrmonatigen Zeithorizont (3M–3W) vor der jeweiligen Insolvenz gesammelt.
Die dargestellten Tagclouds geben einen exemplarischen Überblick über den Inhalt der Texte.
Mit einem RapidMiner-Prototypen wurden die Nachrichtentexte hinsichtlich möglicher Insolvenzen klassifiziert und die Resultate mit In- und Out-Of-Sample-Tests untersucht.

Tagcloud Nachrichten insolvent gegangene Unternehmen
Tagcloud Nachrichten nicht insolvent gegangene Unternehmen

Bereits anhand der Tagclouds ist somit ein deutlicher Unterschied zwischen den Nachrichten zu insolvent gegangenen  und nicht insolvent gegangenen Unternehmen erkennbar.

Die RapidMiner-Lösung wurde mit einem Trainingssample (70% der Texte) trainiert und auf einem Test-sample (30% der Texte) angewendet.
Sowohl für das Trainingssample (In-Sample) als auch für das Testsample ergaben sich dabei Trefferquoten (Accuracy) von ca. 80%. Die Area Under the Curve (AUC) lag zudem im In-Sample-Fall bei 90%.
Anhand der RapidMiner-Konfidenzen und den tatsächlichen Insolvenzen konnte zudem eine PD-Kalibrierung durchgeführt werden.

Selbst mit dem relativ kleinen Trainingssample konnte damit eine signifikante Früherkennung von Insolvenzen erreicht werden. Weitere Verbesserungen sind mit einer Erweiterung der Trainingsdaten zu erwarten.

Kosteneffiziente Umsetzung

Ausgangslage

Da sich noch kein einheitlicher Markt für Internet-Nachrichten-Lieferungen gebildet hat, sind die Preise oft uneinheitlich. Unterschiedliche Anforderungen an die Bereinigungsroutinen und unterschiedliche technische Ansätze führen zu großen Preisspannen.
Hingegen sind qualitativ hochwertige Analyse-Tools wie  R oder RapidMiner (Version 5.3) z.T. sogar frei erhältlich.
Zudem bietet ca. die Hälfte aller Online-Zeitungen ihre Schlagzeilen in Form standardisierter RSS-Feeds an.

Kostentreiber

Die Umsetzungs- sowie die laufenden Kosten von nachrichtenbasierten Frühwarnsystemen können sich insbesondere aus den folgenden Gründen z.T. deutlich erhöhen:

  • Eine Auswertung vollständiger Nachrichtentexte erfordert aus Urheberrechtsgründen Gebühren an Verwertungsgesellschaften (VG Wort) bzw. einen direkten Kauf.
  • Ein Crawling beliebiger Quellen ist technisch aufwendig.
  • Die Pflege fortschrittlicher NLP-Algorithmen (Natural Language Processing) zur Identifizierung relevanter Texte ist kostenintensiv.

Es ist daher zu prüfen, inwiefern die genannten Punkte – zumindest für eine Basis-Umsetzung – tatsächlich notwendig sind.

Kosteneffiziente Basis-Lösung

Der bereits entwickelten kosteneffizienten RiskDataScience Basis-Lösung liegen folgende Annahmen zugrunde

  • in den Überschriften sowie kurzen Textausschnitten (“Snippets“) enthaltene Informationen sind für Insolvenzwarnungen ausreichend
  • es liegen genügend freie RSS-Feeds vor, die eine hinreichend gute Übersicht über die Lage (mittelständischer) Unternehmen bieten
  • die Relevanz der Nachrichten-Snippets kann anhand einfacher Text-Suchen ermittelt werden

Die realisierte Lösung basiert auf folgenden – im Batch-Modus lauffähigen – Komponenten

  • Datenbank, die hunderte RSS-Links zu Wirtschafts- und Regional-Nachrichten enthält und ca. 50% der deutsch-sprachigen Online-Zeitungen abdeckt
  • Lösung auf RapidMiner-Basis zum Einlesen beliebig vieler RSS-Feeds in ein Excel-Format
  • VBA-Routinen zum Herausfiltern relevanter Snippets mittels Texterkennung

Damit können jederzeit innerhalb weniger Minuten hunderte Nachrichtenquellen durchsucht und Insolvenzsignale zu potentiell tausenden Unternehmen identifiziert werden.

Urheberrechtliche Fragestellungen

Bei einer Realisierung nachrichtenbasierter Frühwarnsysteme müssen zwingend die rechtlichen Vorgaben beachtet werden, die sich insbesondere aus dem Urheberrecht (UrhG) ergeben.

Dieses setzt der Vervielfältigung und Bearbeitung von Nachrichten-Texten enge Grenzen.
Insbesondere im Falle von Datenbanken sowie Weiter-Veröffentlichungen können Probleme auftreten.

Demgegenüber stehen zahlreiche Ausnahmen, insbesondere in Bezug auf vorübergehende Vervielfältigungshandlungen sowie Zeitungsartikel und Rundfunkkommentare.

Obwohl die Verarbeitung von Nachrichten-Snippets i.A. unbedenklich ist, wird aufgrund der hohen Komplexität des UrhG zur Absicherung anwaltlicher Rat empfohlen.

Angebotsstufen für einen Einsatz von Machine Learning-Verfahren zur Kreditrisiko-Füherkennung

RiskDataScience ermöglicht Banken die beschriebenen Verfahren effizient und institutsspezifisch einzusetzen und weiterzuentwickeln. Entsprechend den jeweiligen Anforderungen werden dazu folgende drei Ausbaustufen vorgeschlagen.

Stufe 1: Methodik

  • Einweisung in Text-Klassifikationsmethodik
  • Übergabe und Installation der vorhandenen Lösung zur Tagcloud-Generierung
  • Übergabe und Installation der vorhandenen RapidMiner-Lösung
  • Übergabe und Dokumentation der Visualisierungs- und Auswertetechniken
    Bank ist in der Lage Methodik eigenständig zu verwenden und weiterzuentwickeln

Stufe 2: Customizing

  • Stufe 1 und zusätzlich
  • Anpassung und ggf. Neuerstellung von Referenzgruppen gemäß Portfolien der jeweiligen Bank
  • Durchführung von Analysen und Methodenoptimierung anhand der Portfolien und Kundenhistorie der Bank
  • Anpassung der RSS-Quellen
    Entwicklung einer Prozessbeschreibung für einen effizienten Einsatz
  • Kommunikation und Dokumentation der Ergebnisse an alle Stakeholder
    Kunde verfügt über gecustomizte Verfahren und Prozesse zur Analyse von Nachrichtentexten

Stufe 3: IT-Lösung

  • Stufe 1, Stufe 2 und zusätzlich
  • Spezifikation aller Anforderungen für eine automatisierte, ggf. webbasierte IT-Lösung
  • Vorschlag und Kontaktierung möglicher Anbieter
  • Unterstützung bei der Anbieter- und Tool-Auswahl
  • Unterstützung bei der Planung der Umsetzung
  • Fachliche und koordinative Begleitung des Umsetzungsprojekts
  • Fachlicher Support nach Implementierung der IT-Lösung
    Bank verfügt über automatisierte IT-Lösung zur nachrichtenbasierten Früherkennung von Insolvenzsignalen.

Je nach Kundenwunsch ist eine flexible Ausgestaltung möglich. Gerne erläutern wir unseren Ansatz auch im Rahmen eines Vorab-Workshops.

Kontakt

Dr. Dimitrios Geromichalos
Founder / CEO
RiskDataScience UG (haftungsbeschränkt)
Theresienhöhe 28, 80339 München
E-Mail: riskdatascience@web.de
Telefon: +4989244407277, Fax: +4989244407001
Twitter: @riskdatascience

Machine Learning-basierte Einstufung und Klassifikation regulatorischer Anforderungen

Übersicht Problemstellung und Angebot

Die im Zuge der Finanzkrise ab 2007 beschlossenen Regularien stellen Banken vor kaum zu bewältigende Herausforderungen. Gleichzeitig stehen den Banken beträchtliche Wissensressourcen zur Verfügung, die für die Bewältigung der Aufgaben genutzt werden können, aufgrund ihres Umfangs und ihrer Komplexität jedoch sehr aufwendige Analysen erfordern. Machine Learning-Verfahren ermöglichen die Nutzung der vorhandenen Wissensressourcen mit einer bisher nicht dagewesenen Effizienz und Effektivität.
RiskDataScience verfügt diesbezüglich über bereits entwickelte Kategorien und Algorithmen zur Klassifizierung und Gruppierung von Texten mit regulatorischem Bezug. Der regulatorische Einsatz von Machine Learning-Verfahren kann hierbei flexibel ausgestaltet werden.
Damit können Zusammenhänge zwischen den Regularien erkannt, Stakeholder, Verfahren und Projektabhängigkeiten frühzeitig identifiziert und Probleme antizipiert und vermieden werden. Banken können zudem Projektkosten senken und Planungen optimieren. Außerdem wird eine zeitnahe Einstufung der Auswirkungen erleichtert.

Regulatorische Herausforderungen

Regularien wie IFRS 9, BCBS 239, FTRB, IRRBB oder die MaRisk-Novelle 2016 erfordern grundlegende Änderungen in den Methoden, Prozessen und/oder Systemen der Banken. Viele Regularien haben zudem weitreichende Auswirkungen auf die Risiken, das Eigenkapital und damit das Geschäftsmodell der betroffenen Banken. Die große Anzahl der finalen bzw. in Konsultation befindlichen Regularien gestaltet ein angemessenes Monitoring der Anforderungen und Auswirkungen schwierig.

Weitere Komplikationen ergeben sich aus der Interaktion der Anforderungen. Die Regularien können verschiedene, miteinander zusammenhängende, Bereiche der Banken, wie Risk, Handel, Finance oder die IT betreffen. Bereits laufende Projekte (inklusive der Projektziele) können ebenfalls von Regularien betroffen sein und müssen ggf. angepasst werden. Bei regulatorischen Umsetzungsprojekten kann es daher zu zeitlichen und inhaltlichen Abhängigkeiten sowie Zielkonflikten zwischen den Projekten kommen.

Dementsprechend finden in den Banken unzählige Vorstudien und Umsetzungsprojekte statt. Zahlreiche Beratungsunternehmen führen hierbei Projekte durch, die sich oft durch lange Laufzeiten und einen hohen Ressourcenbedarf auszeichnen. Die Projekte binden außerdem interne Ressourcen und verschärfen bereits vorhandene Personalengpässe.
Generell ist die externe Unterstützung kostspielig und erhöht den Koordinationsaufwand, insbesondere bei mehreren Dienstleistern. Fehler in Vorstudien und Projekt-Anfangsphasen lassen sich zudem nur schwer korrigieren. Aufgrund der hohen Projekt-Komplexität besteht schließlich das Risiko, dass Auswirkungen und Interdependenzen nicht rechtzeitig erkannt werden.

Wissensressourcen zur Aufgabenbewältigung

Als externe Ressourcen stehen den Banken zunächst Originaltexte der Regularien sowie der Konsultationen zur Verfügung, die für gewöhnlich frei erhältlich sind. Zahlreiche einschlägige Online-Portale veröffentlichen regelmäßig Artikel über Inhalt und Auswirkungen der regulatorischen Anforderungen. Verschiedene Beratungsunternehmen, insbesondere die Big 4, stellen den Banken außerdem freie Artikel, Whitepapers und Newsletters zur Verfügung. Somit kann dann Internet in gewissem Umfang bereits als Medium für Vorab-Analysen aufgefasst werden.

Intern haben die Banken bereits umfangreiche Erfahrungen durch bereits abgeschlossene oder aktuell laufende Projekte gesammelt, wie Projektdokumentationen oder Lessons Learned. Banken verfügen zusätzlich über umfangreiche Dokumentationen der eingesetzten Methoden, Prozesse und Systeme sowie der Zuständigkeiten und organisatorischen Gegebenheiten. Interne Blogs, etc. bündeln darüber hinaus die Expertise der Mitarbeiter. Teil-Analysen sind damit bereits in beträchtlichem Umfang vorhanden.

Wissensnutzung durch Machine Learning-Verfahren

Methoden und Tools

Für die Analyse der regulatorischen sowie der sich hierauf beziehenden Texte kommen verschiedene Text Mining-Methoden aus dem Bereich Data Science / Machine Learning in Betracht, die sich in folgende Kategorien einteilen lassen.

  • Supervised Learning: Die Algorithmen werden mit bekannten Datensätzen darauf „trainiert“ Texte den jeweiligen Regularien zuzuordnen. „Unbekannte“ Texte können anschließend bekannten Regularien mit bestimmten Konfidenzen zugeordnet werden. Diese Verfahren eignen sich insbesondere zur Zuordnung neuer Texte zu bereits bekannten Regularien sowie zur Identifizierung von Ähnlichkeits-Kriterien (Stopword-Listen, s.u.).
  • Unsupervised Learning: Hierbei werden „natürliche“ Cluster gebildet, die Regularien können unmittelbar gemäß Ähnlichkeitskriterien gruppiert werden. Neue Regularien können damit mit bereits bekannten verglichen werden.

Die Analysen erfordern Programme auf der Basis entsprechender Analysetools, wie z.B. R oder RapidMiner.

Mining-Vorbereitung

Der erste Schritt ist die Bildung von Ähnlichkeits-Kategorien anhand derer Ähnlichkeiten und Zusammenhänge festgestellt werden sollen. Mögliche Kategorien sind z.B. Risikobezug, Auswirkung auf Kapital, Organisations-Aspekte oder Zielgruppen. Die Bildung der Kategorien sowie der entsprechenden Wortlisten erfordert fundierte fachliche Expertise

Auf Basis der Kategorien sind Wortlisten (bzw. Stopword-Listen, d.h. Ausschlusslisten) zu bilden, anhand derer die Analysen durchgeführt werden sollen. Die eingelesenen und vorverarbeiteten Texte müssen gemäß der zu untersuchenden gefiltert werden.

Mining-Durchführung

Basis für die Mining-Durchführung sind die aus den gefilterten Texten gebildeten Term Document Matrices.
Nach Anpassung der Stopwortlisten können „neue“ Regularien mit bereits bekannten „Backbone-Regularien“ verglichen werden. Die Resultate können dazu verwendet werden die Stopwortlisten weiter zu optimieren und z.B. in Form von Spinnendiagrammen dargestellt werden.
Mit den optimierten Stopwortlisten können anschließend Gruppierungen vorgenommen und in Form von Baumdiagrammen dargestellt werden.

Vorteile einer automatisierten Untersuchung

Kostensenkung

Regulatorische Umsetzungsprojekte sind für Banken einer der größten Kostentreiber. Mit einem Bedarf an mehreren hundert Mitarbeitern können die Kosten im dreistelligen Millionenbereich liegen. Dementsprechend sind die Vorstudien hierzu von großer Bedeutung. Diese beinhalten u.a. die Dokumentklassifikation, Stakeholderermittlung, Relevanzeinstufung, Gap-Analyse und Planung der Umsetzung. Vorstudien sind ihrerseits kostspielig und wirken sich darüber hinaus über die Planung auf die Kosten der Umsetzungsprojekte aus.
Die Kosten automatisierter Analysen sind vergleichsweise marginal. Dennoch können mehrere Aufgaben von Vorstudien, wie die Dokumentklassifikation, die Stakeholderermittlung oder Relevanzeinstufung mit übernommen und optimiert werden.
Damit sinken die Kosten von Vorstudien aufgrund des geringeren Personalbedarfs. Frei werdende Mittel können  effektiver eingesetzt werden, indem z.B. weniger und dafür erfahrene Berater engagiert werden.
Zudem kann die Planung der Umsetzung hinsichtlich möglicherweise irrelevanter Punkte kontrolliert werden.

Fehlerreduktion

Automatische Analysen stellen eine effiziente Zusatzkontrolle dar, die dazu beiträgt Projektrisiken – etwa durch Planungsfehler – zu minimieren.
Nichttriviale – und möglicherweise übersehene – Interdependenzen zwischen Programmen und Projekten können identifiziert und in der Planung berücksichtigt werden.
Ergebnisse von Vorstudien und Aussagen externer Dienstleister können damit eigenständig überprüft werden.

Antizipation

Banken werden mit ständig neuen Konsultationspapieren konfrontiert, zu denen sie Stellung beziehen müssen. Eine rechtzeitige Analyse aller Aspekte ist kostspielig und fehleranfällig.
Automatische Analysen können hingegen per definitionem sehr schnell und standardisiert durchgeführt werden. Damit können Auswirkungen auf das Geschäftsmodell rechtzeitig antizipiert und in die Stellungnahmen einbezogen werden.

Anwendungsbeispiel: Analyse der neuen MaRisk-Novelle 2016

Das im Folgenden beschriebene Anwendungsbeispiel basiert auf einem bereits entwickelten Prototypen (MVP) und extern verfügbaren Daten. Obwohl auch damit bereits die unten skizzierten Einsichten gewonnen werden können, wird der volle Nutzen erst mit der Analyse zusätzlicher bankinterner Texte erreicht.

Allgemeines

Mit einem RapidMiner-Prototypen wurden Ähnlichkeiten zwischen der MaRisk-Novelle 2016 sowie BCBS 239, FRTB, IRRBB, Prudent Valuation und SA-CCR untersucht.
Die Analysen wurden für die von RiskDataScience entwickelten Ähnlichkeitskategorien „Data“ (Datenbezug), „Function“ (Bank-Einheiten), Impact (Auswirkungen auf Projekte und Eigenkapital), Overall (allgemein), Regul (Regulatoren und Zielgruppen) und Risk (Risikoarten und Methoden) durchgeführt.
Die dargestellten Tagclouds geben einen exemplarischen Überblick über den Inhalt einiger Textkorpi.

Tagcloud Textkorpus FRTB

 

Tagcloud Textkorpus MaRisk-Novelle 2016

 

Tagcloud Textkorpus BCBS 239

Bereits anhand der Tagclouds ist somit eine starke Ähnlichkeit zwischen der MaRisk-Novelle 2016 und BCBS 239 (im Gegensatz zu FRTB) ersichtlich.

Textklassifikation

Die RapidMiner-Lösung wurde mit Textkorpi zu den Regularien BCBS 239, Prudent Valuation, IFRS 9, FRTB, IRRBB und SA-CCR trainiert.
Die Texte zur MaRisk-Novelle 2016 wurden als „unbekannt“ angenommen und vom trainierten Algorithmus den jeweiligen „bekannten“ Regularien zugeordnet. Die Visualisierung erfolgte mittels Spinnendiagrammen.

Wie erwartet gibt es in allen Bereichen eine starke Ähnlichkeit zwischen der MaRisk-Novelle 2016 und BCBS 239.

Textclustering

Im Rahmen der Validierung der Textklassifikation wurden die Wortlisten für die Ähnlichkeitskategorien soweit optimiert, bis sie für ein Clustering verwendet werden konnten.
Beim Clustering konnten alle betrachteten Regularien zugleich nach Ähnlichkeiten bzgl. der jeweiligen Kategorie gruppiert werden.
Durch Variation der Cluster-Größe im entsprechenden RapidMiner-Algorithmus wurde eine hierarchische Struktur aufgebaut und als Baumdiagramm visualisiert.

Auch hier gibt es starke Ähnlichkeiten zwischen der MaRisk-Novelle 2016 und BCBS 239.  Weitere starke Ähnlichkeiten existieren zwischen FRTB und IRRBB; IFRS 9 nimmt dagegen oft eine Sonderrolle ein.

Self-Organizing Maps (SOM)

Eine weitere Analyse- und Visualisierungsmöglichkeit ergibt sich mittels Self-Organizing Maps. Hierbei werden die Texte gemäß definierter Kategorien in eine aus Sechsecken bestehende Struktur so, eingeordnet, dass ähnliche Texte benachbart sind. Aufgrund der Vielzahl verschiedener Texte und der Komplexität des Problems nehmen Regularien dabei prinzipiell mehrere Felder ein. Die Farbgebung verdeutlicht zudem die „Einzigartigkeit“ verschiedener Texte.

Kategorie “Overall”

 

Kategorie “Functions”

 

Kategorie “Impact”

Wie erwartet stellt die allgemeine Sicht die MaRisk-Novelle 2016 nahe BCBS 239.  In der Funktionen-Sicht ergeben sich zudem Ähnlichkeiten zwischen FRTB, IRRBB und SA-CCR, die alle von Risk-Abteilungen wahrgenommen werden,  während sich in der Impact-Sicht IFRS 9 und FRTB – mit  Auswirkungen auf die Kapitalisierung – ähneln.

Angebotsstufen für einen regulatorischen Einsatz von Machine Learning-Verfahren

RiskDataScience ermöglicht Banken die beschriebenen Verfahren effizient und institutsspezifisch einzusetzen und weiterzuentwickeln. Entsprechend den jeweiligen Anforderungen werden dazu folgende drei Ausbaustufen vorgeschlagen.

Stufe 1: Methodik

  • Einweisung in Klassifikations- und Gruppierungsmethodik regulato-rischer Texte
  • Übergabe und Installation der vorhandenen Lösung zur Tagcloud-Generierung
  • Übergabe und Installation der vorhandenen RapidMiner-Lösung
  • Übergabe und Dokumentation der Visualisierungs- und Auswertetechniken
    Bank ist in der Lage Methodik eigenständig zu verwenden und weiterzuentwickeln

Stufe 2: Customizing

  • Stufe 1 und zusätzlich
  • Anpassung und ggf. Neuerstellung regulatorischer Ähnlichkeitskategorien gemäß Gegebenheiten der jeweiligen Bank
  • Analyse der konkreten Regularien, Projekte, Methoden, Prozesse und Systeme zur Identifizierung optimaler Einsatzmöglichkeiten
  • Entwicklung einer Prozessbeschreibung für einen effizienten Einsatz
  • Kommunikation und Dokumentation der Ergebnisse an alle Stakeholder
    Bank verfügt über gecustomizte Verfahren und Prozesse zur Analyse regulatorischer Anforderungen

Stufe 3: IT-Lösung

  • Stufe 1, Stufe 2 und zusätzlich
  • Spezifikation aller Anforderungen für eine automatisierte, ggf. webbasierte IT-Lösung
  • Vorschlag und Kontaktierung möglicher Anbieter
  • Unterstützung bei der Anbieter- und Tool-Auswahl
  • Unterstützung bei der Planung der Umsetzung
  • Fachliche und koordinative Begleitung des Umsetzungsprojekts
  • Fachlicher Support nach Implementierung der IT-Lösung
    Bank verfügt über automatisierte IT-Lösung zur effizienten Klassifizierung und Gruppierung regulatorisch relevanter Texte

Je nach Kundenwunsch ist eine flexible Ausgestaltung möglich. Gerne erläutern wir unseren Ansatz auch im Rahmen eines Vorab-Workshops.

Kontakt

Dr. Dimitrios Geromichalos
Founder / CEO
RiskDataScience UG (haftungsbeschränkt)
Theresienhöhe 28, 80339 München
E-Mail: riskdatascience@web.de
Telefon: +4989244407277, Fax: +4989244407001
Twitter: @riskdatascience