Machine Learning-Based Credit Rating Early Warning

Overview Challenge and Offer

As an important type of risk, credit risks are quantified using sophisticated rating procedures. Due to the time-consuming preparation and lack of up-to-date balance sheet data, ratings are only delayed. Banks have therefore already introduced market data-based early-warning systems for current credit risk signals, but these can not provide any indications in the event of missing market data.
On the other hand, corporate news and press articles often provide important information about problems and imbalances .
RiskDataScience has developed algorithms for the automatic detection and classification of news texts with regard to bankruptcy relevance (News-Based Early Warning).
This allows banks to extract valuable additional information about imminent insolvencies from news sources. An early recognition of credit risks is thus also possible for non-listed companies without direct market data.

Credit Risk Measurement

Overview

Credit risk is the risk of credit events such as default, late payment, credit downgrade or currency freeze.
Another distinction relates to the classification into issuer (for bonds), counterparty (for derivative transactions) and the – in the following considered – credit default risk of borrowers.
Credit risks are often the biggest bank risk and, in addition to market and operational risks, must be backed by equity under Basel II / III.

A frequently used indicator for quantifying credit risks is the expected loss of a loan. This results in the simplest case as a product

  • PD: Probability of Default
  • LGD: Loss Given Default
  • EaD: Exposure at Default

External and internal credit ratings mainly measure the PD (and LGD, for example) and are determined using complex procedures.

Determination and Early Detection

The methods for determining PD require well-founded statistical analyzes based on

  • quantitative balance sheet ratios such as debt ratio, equity ratio and EBIT
  • qualitative analyst key figures such as quality of management, future prospects and market position
  • general market data such as interest rates, inflation and exchange rates.

The rating models must be regularly validated against actual credit events and adjusted if necessary.
Credit ratings are therefore usually delayed – often only annually.
To address this issue, market-data-based early-warning systems have been introduced that provide signals based on significant changes in stock prices, credit spreads or other market-related correlated data. In general, however, only systematic or risks of listed companies can be identified.

Information from News Texts

Overview

The reasons for bankruptcies are often company-specific (idiosyncratic) and can not be derived from general market developments. examples for this are

  • Fraud cases by management
  • Bankruptcy of an important customer or supplier
  • Appearance of a new competitor

Negative events such as plant closures, short-time work, investigations and indictments are sometimes several months ahead of the actual bankruptcy.

In the case of non-listed companies, however, no market-data-based early warning is possible. On the other hand, news also provides up-to-date and often insolvency-relevant information in these cases.
News articles, blogs, social media and in particular local newspapers inform online and offline about problems of companies.
The efficient use of online texts makes it possible to extend the early warning to non-listed companies.

Efficient News Analysis

Methods for the efficient analysis of texts are a prerequisite for identifying the relevant news and, based on this, anticipating possible bankruptcies. For this are necessary

  • a timely identification of hundreds of data sources (newspapers, RSS feeds, etc.) taking into account the legal aspects
  • an automatic reading of the relevant messages about all customers based on given mandatory and exclusion criteria
  • a timely classification of the relevant texts on the basis of possible insolvency risks
  • an immediate analysis and visualization of the risk identification results

Already implemented machine learning algorithms serve as a basis for this seemingly impossible task.

Knowledge use through machine learning procedures

Automated Reading

As a first step, all relevant news sources (e.g., newspaper articles from specialized providers) must be identified on the basis of a sufficiently large sample of companies to be examined and irrelevant sources must be excluded wherever possible.

The messages are to be filtered according to relevance. In order to avoid confusion due to the name or erroneous parts of the text (for example regarding equities), word filters and possibly complex text analyzes are necessary.

Classification

For the classification of the extracted message texts different text mining methods from the field of data science / machine learning are considered. Supervised learning is done as follows

  • first, the words that are irrelevant for the classification are determined manually (“stop words”)
  • the algorithms are then “trained” with known data records to associate texts with categories
  • new texts can then be assigned to known categories with specific confidences

Methodically, the following steps are to be carried out

  • from the filtered texts, significant word stems / word stem combinations (“n-grams“) are determined
  • the texts are mapped as points in a high-dimensional space (with the n-grams as dimensions)
  • machine learning procedures identify laws for separating points into categories. For this purpose, dedicated algorithms such as naive Bayes, W-Logistic or Support Vector Machine are available

The analyzes require programs based on appropriate analysis tools, e.g. R or Python

Sample Case

For about 50 insolvent companies and 50 non-insolvent reference companies, (German) message snippets were collected for a multi-month time horizon (3M-3W) before the respective bankruptcy.
The illustrated tag clouds provide an exemplary overview of the content of the texts.
With a RapidMiner prototype, the message texts were classified for possible bankruptcies and the results were examined with in and out-of-sample tests.

Tagcloud news for companies gone bankrupt
Tagcloud news for companies not gone bankrupt

Already on the basis of the tagclouds a clear difference between the news about insolvent and not bankrupt companies can be seen.

The RapidMiner solution was trained with a training sample (70% of the texts) and applied to a test sample (30% of the texts).
Both for the training sample (in-sample) and for the test sample resulted in accuracy rates (accuracy) of about 80%. The Area Under the Curve (AUC) was also 90% in the in-sample case.
Based on the RapidMiner licenses and the actual insolvencies, a PD calibration could also be performed.

Even with the relatively small training sample, a significant early detection of insolvencies could be achieved. Further improvements are to be expected with an extension of the training data.

Cost-Effective Implementation

Starting Position

Since there has not yet been a single market for Internet news deliveries, prices are often inconsistent. Different requirements for the cleaning routines and different technical approaches lead to large price ranges.
On the other hand, high-quality analysis tools such as R or RapidMiner (Version 5.3) are currently available. even available for free.
In addition, about half of all online newspapers offer their headlines in the form of standardized RSS feeds.

Cost Drivers

The implementation and ongoing costs of message-based early warning systems may be limited in part to the following reasons, in particular: increase significantly:

  • An evaluation of news texts requires royalties to collecting societies (e.g. VG Wort in Germany) or a direct purchase
  • A automatied reading is technically complicated
  • Maintaining advanced NLP (Natural Language Processing) algorithms to identify relevant text is costly

It is therefore necessary to examine to what extent the points mentioned are actually necessary, at least for a basic implementation.

Cost-Efficient Basic Solution

The already developed cost-efficient RiskDataScience basis solution is based on the following assumptions.

  • information contained in headings and short snippets is sufficient for bankruptcy warnings
  • there are enough free RSS feeds that provide a sufficiently good overview of the situation (medium-sized) companies
  • the relevance of the news snippets can be determined by simple text searches

Hundreds of news sources can be searched and bankruptcy signals can be identified to potentially thousands of companies within minutes.

Copyright Issues

When implementing message-based early-warning systems, it is imperative to comply with the legal requirements that arise, in particular, from copyright law (e.g. UrhG in Germany).

This places narrow limits on the duplication and processing of news texts.
In particular, in the case of databases and further publications problems may occur in some jurisdictions.

On the other hand, there are many exceptions, especially with regard to temporary acts of reproduction, newspaper articles and radio commentary.

Although the processing of message snippets should be generally safe, due to the high complexity of the relevant laws legal advice is recommended.

Offer levels for using machine learning techniques for credit risk detection

RiskDataScience enables banks to use and develop the described procedures efficiently and institution-specifically. According to the respective requirements, the following three expansion stages are proposed.

Stage 1: Methodology

  • briefing in text classification methodology
  • transfer and installation of the existing solution for tag cloud generation
  • handover and installation of the existing solution – or, depending on customer requirements, support of the on-site implementation
  • transfer and documentation of the visualization and evaluation techniques
    Bank is able to independently use and develop methodology

Stage 2: Customizing

  • stage 1 and additionally
  • adjustment and possibly creation of reference groups according to portfolios of the respective bank
  • performing analyzes and method optimization based on the portfolios and customer history of the bank
  • adaptation of RSS sources
  • development of a process description for an efficient use
  • communication and documentation of results to all stakeholders
    Customer has customized procedures and processes for analyzing message texts

Stage 3: IT Solution

  • stage 1, stage 2 and additionally
  • specification of all requirements for an automated, possibly web-based IT solutions
  • suggestion and contacting potential providers
  • support in provider and tool selection
  • assistance in planning the implementation
  • professional and coordinative support of the implementation project
  • technical support after implementation of the IT solution
    Bank has an automated IT solution for message-based early detection of insolvency signals.

Depending on customer requirements, a flexible design is possible. We are happy to explain our approach as part of a preliminary workshop.

Contact

Dr. Dimitrios Geromichalos
Founder / CEO
RiskDataScience UG (haftungsbeschränkt)
Theresienhöhe 28, 80339 München
Email: riskdatascience@web.de
Phone: +4989244407277, Fax: +4989244407001
Twitter: @riskdatascience

An NLP-Based Analysis of the Banking Regulation “RTS on Procedures for Excluding Third Country NFCS from CVA Risk Charge” in 15 Minutes

Regulations pose hardly manageable challenges for banks as more and more voluminous requirements are added to an already extremly complex environment.
Often, the regulations require significant changes in the banks’ methods, processes and/or systems and can have an additional impact on the capital requirements and hence the business model of the banks.
Projects dealing with regulatory issues cost the banks in total several billions of Euros and bind immense expert resources. Furthermore, the timelines for fulfilling the requirements are very tight and require fast decisions.
On the other hand, banks already have enormous knowledge resources for dealing with the challenges: External and internal texts, like the regulatory texts themselves or project documentations and audit findings, contain abundant information about a wide range of issues.
Hence, an efficient analysis of the information can provide substantial enhancements of the banks’ capabilities to deal with regulatory issues. RiskDataScience has already developed respective concepts and tools and is further enhancing them together with partner companies.

The article at hand deals with the exemplary machine learning / natural language processing-based analysis of a new regulatory text with our specially developed tools. The emphasis of the analysis presented lies on speed, since the self-imposed target is to obtain all the results “in 15 minutes” once everything is properly set up.
The analyzed regulation is the “RTS on Procedures for Excluding Third Country NFCS from CVA Risk Charge“. Mainly, it’s about excluding transactions with non-financial counterparties established in a third country from the own funds requirement for credit valuation adjustment risk.

Our 15-minutes analysis starts with the superb Python “summarize” tool which provides short summarizations of texts. In this case the summarization is

EBA final draft Regulatory Technical Standards on the procedures for excluding transactions with non-financial counterparties established in a third country from the own funds requirement for credit valuation adjustment risk under Article 382(5) of Regulation (EU) No 575/2013 (Capital Requirements Regulation Œ CRR) RTS ON PROCEDURES FOR EXCLUDING THIRD COUNTRY NFCS FROM CVA RISK CHARGE 9 EUROPEAN COMMISSION Brussels, XXX [–](2015) XXX draft COMMISSION DELEGATED REGULATION (EU) No –/..

Hmm, sounds familiar. The algorithm apparently has extracted the basic information of the text.

The next step is a cosine similarity comparison with other regulatory texts via the semantic analysis method LSI (Latent Semantic Indexing). The regulatory texts at hand were Basel 2, Basel 3, CRD IV, CRR, and EMIR.
As one should expect, the similarities to CRR and CRD IV should be very high, there should be some similarities to EMIR, few to Basel 3 (due to the CVA context) and nearly none to Basel 2.
These are the results:

  • CRD IV: 0.964
  • CRR: 0.891
  • EMIR: 0.667
  • Basel 3: 0.327
  • Basel 2: 0.082

Again, as expected.

Now, the speed advantage of automatic analyses comes into play, as the last analysis deals with a sentence-by-sentence comparison. For this, our program splits the RTS text and finds out each CRR sentence with the highest similarity. The – at the first glance plausible – results can be downloaded here as tab-separated csv:

highest_similarity

This concludes our analysis – since the timeline is just below 15 minutes.

 

The method can be enhanced to capture more complex cases and issues, like the identification of the legal basis of inquiries or the examination of “regulatory gap networks”.

We are developing respective methods and tools and support our customers in obtaining an overall perspective of the regulatory data in use.

Contact

Dr. Dimitrios Geromichalos
Founder / CEO
RiskDataScience UG (haftungsbeschränkt)
Theresienhöhe 28, 80339 München
E-Mail: riskdatascience@web.de
Telefon: +4989244407277, Fax: +4989244407001
Twitter: @riskdatascience

Machine Learning-basierte Newsticker-Priorisierung

Übersicht Problemstellung und Angebot

In den Handelsabteilungen von Finanzinstituten müssen oft weitreichende Entscheidungen in sehr kurzer Zeit getroffen werden. Aufgrund der enormen Anzahl verschiedener Wertpapiere, Derivate, Marktdaten und Nachrichten ist das Priorisieren und Einstufen der Informationen komplex und zeitaufwendig.

Machine Learning-Verfahren ermöglichen das automatische selektieren und priorisieren auch unstrukturierter Informationen wie Textnachrichten RiskDataScience verfügt über bereits entwickelte Algorithmen zur automatischen Klassifizierung von Nachrichten-Texten hinsichtlich Kurs-Relevanz.

Händler können aus einer Vielzahl unterschiedlicher Nachrichten zeitnah die wichtigen herausfiltern. Damit wird sowohl die Informationsbasis vergrößert als auch wertvolle Zeit eingespart.

Handelsrelevante Nachrichten

Allgemeines

In den Handelsabteilungen von Banken und Asset Managern werden weitreichende Entscheidungen bzgl. des Erwerbs oder Verkaufs von Assets und Derivaten getroffen.
Insbesondere im Wertpapierbereich ist es dabei aufgrund permanenter Marktschwankungen essentiell Entscheidungen zügig zu treffen.
Andererseits weisen die Finanzmärkte eine hohe Komplexität und ein hohes Risiko auf. Dies erfordert eine valide Berücksichtigung verschiedenster Informationen unter strategischen, Bewertungs- und Risiko-Aspekten.

Die gängigste Informationsquelle sind Marktdaten wie Aktien-, FX-, CS-Kurse, Zinsen und Rohstoffpreise. Daneben liegen unstrukturierte Daten zumeist in Form von Textnachrichten vor, die (im Ggs. zu den Marktdaten) für gewöhnlich noch keine Einschätzung des Marktes widerspiegeln.
Insbesondere in illiquiden Märkten sind Nachrichten oft viel aussagekräftiger und aktueller als Marktdaten. Nachrichten von Reuters oder Bloomberg liegen hierbei in standardisierter und einfach zu analysierender Form vor.

Effiziente Priorisierung und Einstufung

Für eine zeitnahe und angemessene Berücksichtigung der relevanten Informationen müssen Händler

  • Informationsquellen ermitteln, die für die jeweiligen Daten relevant sind.
  • Die tatsächlich wichtigen Informationen herausfiltern.
  • Die Informationen beurteilen und darauf aufbauend Entscheidungen treffen.

Insbesondere das manuelle Herausfiltern von Textnachrichten erweist sich hierbei als sehr zeitaufwendig, fehleranfällig und subjektiv.

Eine automatisierte Priorisierung von Nachrichten gemäß ihrer Wichtigkeit führt hingegen zu einer großen Zeitersparnis. Wichtige Nachrichten können damit in einer vorgegebenen Zeit effektiver und objektiver erkannt werden und Händler können sich auf Handelsstrategien fokussieren und werden zudem mit geeigneteren Informationen versorgt.

Priorisierung mittels Machine Learning-Verfahren

Methoden und Tools

Für die Nachrichten-Analyse kommen verschiedene Text Mining-Methoden aus dem Bereich Data Science / Machine Learning in Betracht. Die hierfür relevanten Supervised Learning-Algorithmen werden wie folgt eingesetzt:

  • Die Algorithmen werden mit bekannten Datensätzen darauf „trainiert“ Texte den jeweiligen Kategorien (z.B. wichtige Nachricht – unwichtige Nachricht) zuzuordnen.
  • „Unbekannte“ Texte können bekannten Kategorien mit bestimmten Konfidenzen zugeordnet werden.
  • Die Güte der Klassifikation wird mittels spezifischer Kennzahlen und Validierungsverfahren wie der Accuracy (Trefferquote), der Area Under the Curve (AUC; Plot Anteil True Positives über Anteil False Positives) oder Lift-Kurven (Pareto-Plot; Effektivitätstest mittels Vergleich mit Zufallsauswahl) überprüft.

Die Analysen erfordern Programme auf der Basis entsprechender Analysetools, wie z.B. R oder RapidMiner.

Analyse-Vorbereitung

Zunächst muss die Kategorisierung der Trainings-Nachrichten gemäß ihrer Wichtigkeit wie folgt durchgeführt werden:

  • Die Unternehmens-Nachrichten werden den jeweiligen Marktwertänderungen (z.B. Aktien-Returns) zugeordnet
  • Die Nachrichten werden anhand dieser Änderungen nach fachlichen Kriterien den Kategorien zugeordnet (z.B. bei Schwankungen größer σ der Kategorie „wichtig“).

Zudem müssen Stopword-Listen, d.h. Listen auszuschliessender missverständlicher oder zu häufig auftretender Begriffe, gebildet werden.

Analyse-Durchführung

Hierbei werden aus den gemäß Stopword-Listen bereinigten Texten Wortstämme gebildet.
Aus den Texten werden anschließend nach informationstheoretischen Kriterien die signifikanten Wörter und Wortkombinationen extrahiert (n-grams).
Die Texte werden dann als Punkte in einem hochdimensionalen Raum mit den n-grams als Dimensionen dargestellt (Term Document Matrix, TDM).
Per Supervised Learning-Algorithmen werden im Anschluss Kriterien zur Trennung der Punktwolken ermittelt.
Die Ergebnisse sind noch mit spezialisierten Verfahren zu validieren.

Angebotsstufen für eine Priorisierung von Handels-Nachrichten mittels Machine Learning-Verfahren

RiskDataScience ermöglicht Kunden die beschriebenen Verfahren effizient und institutsspezifisch einzusetzen und weiterzuentwickeln. Entsprechend den jeweiligen Anforderungen werden dazu folgende drei Ausbaustufen vorgeschlagen.

Stufe 1: Methodik

  • Einweisung in Klassifikationsmethodik von Nachrichtentexten
  • Übergabe und Installation der vorhandenen Lösung zur Tagcloud-Generierung
  • Übergabe und Installation der vorhandenen RapidMiner-Lösung – bzw. je nach Kundenanforderung Unterstützung der Implementierung vor Ort
  • Übergabe und Dokumentation der Visualisierungs- und Auswertetechniken

Kunde ist in der Lage Methodik eigenständig zu verwenden und weiterzuentwickeln.

Stufe 2: Customizing

  • Stufe 1 und zusätzlich
  • Anpassung und ggf. Neuerstellung von Referenzgruppen gemäß Portfolien des Kunden
  • Entwicklung geeigneter Kennzahlen (wie z.B. Volatilitätsmaßen) für die Kategorisierung gemäß Portfolien und Handelsstrategie des Kunden
  • Entwicklung einer Prozessbeschreibung für einen effizienten Einsatz
  • Kommunikation und Dokumentation der Ergebnisse an alle Stakeholder

Kunde verfügt über gecustomizte Verfahren und Prozesse zur Analyse von Nachrichtentexten.

Stufe 3: IT-Lösung

  • Stufe 1, Stufe 2 und zusätzlich
  • Spezifikation aller Anforderungen für eine automatisierte, ggf. webbasierte IT-Lösung
  • Vorschlag und Kontaktierung möglicher Anbieter und Unterstützung bei der Anbieter- und Tool-Auswahl
  • Unterstützung bei der Planung der Umsetzung sowie fachliche und koordinative Begleitung des Umsetzungsprojekts
  • Fachlicher Support nach Implementierung der IT-Lösung

Kunde verfügt über automatisierte IT-Lösung zur Priorisierung von Nachrichten in Echtzeit.

Je nach Kundenwunsch ist eine flexible Ausgestaltung möglich. Gerne erläutern wir unseren Ansatz auch im Rahmen eines Vorab-Workshops.

Kontakt

Dr. Dimitrios Geromichalos
Founder / CEO
RiskDataScience UG (haftungsbeschränkt)
Theresienhöhe 28, 80339 München
E-Mail: riskdatascience@web.de
Telefon: +4989244407277, Fax: +4989244407001
Twitter: @riskdatascience

Machine Learning-basiertes Kreditrating-Frühwarnsystem

(For the English version click here)

Übersicht Problemstellung und Angebot

Als wichtige Risikoart werden Kreditrisiken mit anspruchsvollen Rating-Verfahren quantifiziert. Aufgrund der aufwendigen Erstellung und fehlender aktueller Bilanzdaten liegen Ratings jedoch nur zeitverzögert vor. Für aktuelle Kreditrisikosignale wurden von Banken daher bereits marktdaten-basierte Frühwarnsysteme eingeführt, die aber keine Indikationen im Falle fehlender Marktdaten liefern können.
Andererseits liefern im Internet vorhandene Unternehmensnachrichten oft wichtige Informationen über Probleme und Schieflagen (siehe auch Nachrichtenbasierte Frühwarnsysteme).
RiskDataScience verfügt über bereits entwickelte Algorithmen zur automatischen Ermittlung und Klassifizierung von Nachrichten-Texten hinsichtlich Insolvenz-Relevanz (News-Based Early Warning).
Damit können Banken aus Nachrichtentexten wertvolle Zusatz-Informationen über drohende Insolvenzen gewinnen. Eine Früherkennung von Kreditrisiken ist damit auch für nichtgelistete Unternehmen ohne direkte Marktdaten möglich.

Kreditrisiko-Messung

Allgemeines

Unter Kreditrisiken versteht man Risiken durch Kreditereignisse, wie Zahlungsausfall, Zahlungsverzug, Herabstufung der Kreditwürdigkeit oder Einfrierung der Währung.
Eine weitere Unterscheidung betrifft die Einteilung in Emittenten- (bei Anleihen), Kontrahenten- (bei Derivate-Geschäften) und – die im Folgenden betrachteten – Kreditausfallrisiken von Kreditnehmern i.e.S.
Kreditrisiken bilden oft das größte Bank-Risiko und müssen – neben Markt- und operationellen Risiken – gemäß Basel II/III mit Eigenkapital unterlegt werden.

Eine häufig herangezogene Kennzahl zur Quantifizierung  von Kreditrisiken ist der erwartete Verlust (Expected Loss) eines Kredits. Dieser ergibt sich im einfachsten Fall als Produkt aus

  • PD: Probability of Default, Ausfall-Wahrscheinlichkeit
  • LGD: Loss Given Default, eins minus Wiederverwertungsrate
  • EaD: Exposure at Default, ausstehendes Kreditvolumen

Externe und interne Kreditratings messen hauptsächlich die PD (und z.T. den LGD) und werden mit aufwendigen Verfahren ermittelt.

Ermittlung und Früherkennung

Die Verfahren zur Ermittlung der PD erfordern fundierte statistische Analysen auf Basis von

  • quantitativen Bilanzkennzahlen wie Verschuldungsgrad, Eigenkapitalquote und EBIT
  • qualitativen Analysten-Kennzahlen wie Qualität des Managements, Zukunftsaussichten und Marktstellung
  • allgemeinen Marktdaten wie Zinsen, Inflation und Wechselkursen.

Die Ratingmodelle müssen regelmäßig anhand tatsächlicher Kreditereignisse validiert und gegebenenfalls angepasst werden.
Kreditratings liegen deshalb meist verzögert – oftmals nur jährlich – vor.
Zur Behebung dieses Problems wurden marktdatenbasierte Frühwarnsysteme eingeführt, die Signale auf der Basis signifikanter Änderungen von Aktienkursen, Credit Spreads oder weiterer mit dem Rating korrelierter Marktdaten liefern. Im Allgemeinen können damit allerdings nur systematische bzw. Risiken gelisteter Unternehmen erkannt werden.

Informationen aus Nachrichten

Allgemeines

Die Gründe für Insolvenzen sind oft unternehmensspezifisch (idiosynkratisch) und können nicht aus allgemeinen Marktentwicklungen abgeleitet werden. Beispiele hierfür sind

  • Betrugsfälle durch das Management
  • Insolvenz eines wichtigen Kunden bzw. Lieferanten
  • Auftreten eines neuen Konkurrenten

Negative Ereignisse wie Werkschließungen, Kurzarbeit, Ermittlungen und Anklagen gehen dabei der eigentlichen Insolvenz zum Teil um mehrere Monate voraus.

Im Falle nichtgelisteter Unternehmen ist dennoch keine marktdatenbasierte Frühwarnung möglich. Hingegen liefern Nachrichten auch in diesen Fällen aktuelle und oftmals insolvenzrelevante Informationen.
Nachrichtenportale, Blogs, Soziale Medien und insbesondere Lokalzeitungen informieren dabei online über Probleme von Unternehmen.
Durch die effiziente Nutzung von Texten ist somit eine Erweiterung der Frühwarnung auf nichtgelistete Unternehmen möglich.

Effiziente Nachrichten-Analyse

Verfahren zur effizienten Analyse von Texten sind Voraussetzung um die relevanten Nachrichten zu identifizieren und darauf aufbauend mögliche Insolvenzen zu antizipieren. Hierfür notwendig sind

  • eine rechtzeitige Identifizierung relevanter Datenquellen (Zeitungen, RSS-Feeds, etc.)
  • ein Einlesen der relevanten Nachrichten zu allen Kunden anhand vorgegebener Muss- und Ausschlusskriterien
  • eine zeitnahe Klassifikation der relevanten Texte anhand möglicher Insolvenzrisiken
  • eine sofortige Analyse und Visualisierung der Ergebnisse zur Erkennung von Risiken

Bereits realisierte Machine Learning-Algorithmen dienen als Basis für diese zunächst unmöglich erscheinende Aufgabe.

Wissensnutzung durch Machine Learning-Verfahren

Einlesen

Im ersten Schritt müssen alle relevanten Nachrichtenquellen anhand einer hinreichend großen Stichprobe zu untersuchender Unternehmen identifiziert und irrelevante Quellen möglichst ausgeschlossen werden.
Die Gewinnung der relevanten Texte aus diesen Quellen kann z.B. über folgende Verfahren erfolgen

  • Bezug von Pressetexten über entsprechende Dienstleister
  • direktes Abgreifen freier RSS-Feeds

Die Nachrichten sind dabei nach Relevanz zu filtern. Zur Vermeidung von Verwechslungen aufgrund des Namens oder irrtümlicher Textbausteine (z.B. bzgl. Aktien) sind Wortfilter und ggf. komplexe Textanalysen notwendig.

Klassifikation

Für die Klassifizierung der gewonnenen Nachrichtentexte kommen verschiedene Text Mining-Methoden aus dem Bereich Data Science / Machine Learning in Betracht. Beim Supervised Learning wird dabei wie folgt vorgegangen

  • zunächst werden manuell die Wörter ermittelt, die für die Klassifikation irrelevant sind („Stopwords“)
  • die Algorithmen werden dann mit bekannten Datensätzen darauf „trainiert“ Texte Kategorien zuzuordnen
  • neue Texte können anschließend bekannten Kategorien mit bestimmten Konfidenzen zugeordnet werden

Methodisch sind dabei folgende Schritte durchzuführen

  • aus den gefilterten Texten werden signifikante Wortstämme/Wortstamm-Kombinationen („n-grams“) ermittelt
  • die Texte werden als Punkte in einem hochdimensionalen Raum (mit den n-grams als Dimensionen) abgebildet
  • Machine Learning-Verfahren ermitteln Gesetzmäßigkeiten zur Trennung der Punkte nach Kategorien. Hierfür bieten sich dezidierte Algorithmen wie naive Bayes, W-Logistic oder Support Vector Machine an.

Die Analysen erfordern Programme auf der Basis entsprechender Analysetools, wie z.B. R oder RapidMiner.

Anwendungsbeispiel

Für ca. 50 insolvent gegangene Unternehmen und 50 nicht-insolvente Referenzunternehmen wurden Nachrichten-Snippets für einen mehrmonatigen Zeithorizont (3M–3W) vor der jeweiligen Insolvenz gesammelt.
Die dargestellten Tagclouds geben einen exemplarischen Überblick über den Inhalt der Texte.
Mit einem RapidMiner-Prototypen wurden die Nachrichtentexte hinsichtlich möglicher Insolvenzen klassifiziert und die Resultate mit In- und Out-Of-Sample-Tests untersucht.

Tagcloud Nachrichten insolvent gegangene Unternehmen
Tagcloud Nachrichten nicht insolvent gegangene Unternehmen

Bereits anhand der Tagclouds ist somit ein deutlicher Unterschied zwischen den Nachrichten zu insolvent gegangenen  und nicht insolvent gegangenen Unternehmen erkennbar.

Die RapidMiner-Lösung wurde mit einem Trainingssample (70% der Texte) trainiert und auf einem Test-sample (30% der Texte) angewendet.
Sowohl für das Trainingssample (In-Sample) als auch für das Testsample ergaben sich dabei Trefferquoten (Accuracy) von ca. 80%. Die Area Under the Curve (AUC) lag zudem im In-Sample-Fall bei 90%.
Anhand der RapidMiner-Konfidenzen und den tatsächlichen Insolvenzen konnte zudem eine PD-Kalibrierung durchgeführt werden.

Selbst mit dem relativ kleinen Trainingssample konnte damit eine signifikante Früherkennung von Insolvenzen erreicht werden. Weitere Verbesserungen sind mit einer Erweiterung der Trainingsdaten zu erwarten.

Kosteneffiziente Umsetzung

Ausgangslage

Da sich noch kein einheitlicher Markt für Internet-Nachrichten-Lieferungen gebildet hat, sind die Preise oft uneinheitlich. Unterschiedliche Anforderungen an die Bereinigungsroutinen und unterschiedliche technische Ansätze führen zu großen Preisspannen.
Hingegen sind qualitativ hochwertige Analyse-Tools wie  R oder RapidMiner (Version 5.3) z.T. sogar frei erhältlich.
Zudem bietet ca. die Hälfte aller Online-Zeitungen ihre Schlagzeilen in Form standardisierter RSS-Feeds an.

Kostentreiber

Die Umsetzungs- sowie die laufenden Kosten von nachrichtenbasierten Frühwarnsystemen können sich insbesondere aus den folgenden Gründen z.T. deutlich erhöhen:

  • Eine Auswertung vollständiger Nachrichtentexte erfordert aus Urheberrechtsgründen Gebühren an Verwertungsgesellschaften (VG Wort) bzw. einen direkten Kauf.
  • Ein Crawling ist technisch aufwendig.
  • Die Pflege fortschrittlicher NLP-Algorithmen (Natural Language Processing) zur Identifizierung relevanter Texte ist kostenintensiv.

Es ist daher zu prüfen, inwiefern die genannten Punkte – zumindest für eine Basis-Umsetzung – tatsächlich notwendig sind.

Kosteneffiziente Basis-Lösung

Der bereits entwickelten kosteneffizienten RiskDataScience Basis-Lösung liegen folgende Annahmen zugrunde

  • in den Überschriften sowie kurzen Textausschnitten (“Snippets“) enthaltene Informationen sind für Insolvenzwarnungen ausreichend
  • es liegen genügend freie RSS-Feeds vor, die eine hinreichend gute Übersicht über die Lage (mittelständischer) Unternehmen bieten
  • die Relevanz der Nachrichten-Snippets kann anhand einfacher Text-Suchen ermittelt werden

Die realisierte Lösung basiert auf folgenden – im Batch-Modus lauffähigen – Komponenten

  • Datenbank, die hunderte RSS-Links zu Wirtschafts- und Regional-Nachrichten enthält und ca. 50% der deutsch-sprachigen Online-Zeitungen abdeckt
  • Lösung auf RapidMiner-Basis zum Einlesen beliebig vieler RSS-Feeds in ein Excel-Format
  • VBA-Routinen zum Herausfiltern relevanter Snippets mittels Texterkennung

Damit können jederzeit innerhalb weniger Minuten hunderte Nachrichtenquellen durchsucht und Insolvenzsignale zu potentiell tausenden Unternehmen identifiziert werden.

Urheberrechtliche Fragestellungen

Bei einer Realisierung nachrichtenbasierter Frühwarnsysteme müssen zwingend die rechtlichen Vorgaben beachtet werden, die sich insbesondere aus dem Urheberrecht (UrhG) ergeben.

Dieses setzt der Vervielfältigung und Bearbeitung von Nachrichten-Texten enge Grenzen.
Insbesondere im Falle von Datenbanken sowie Weiter-Veröffentlichungen können Probleme auftreten.

Demgegenüber stehen zahlreiche Ausnahmen, insbesondere in Bezug auf vorübergehende Vervielfältigungshandlungen sowie Zeitungsartikel und Rundfunkkommentare.

Obwohl die Verarbeitung von Nachrichten-Snippets i.A. unbedenklich sein sollte, wird aufgrund der hohen Komplexität des UrhG zur Absicherung anwaltlicher Rat empfohlen.

Angebotsstufen für einen Einsatz von Machine Learning-Verfahren zur Kreditrisiko-Füherkennung

RiskDataScience ermöglicht Banken die beschriebenen Verfahren effizient und institutsspezifisch einzusetzen und weiterzuentwickeln. Entsprechend den jeweiligen Anforderungen werden dazu folgende drei Ausbaustufen vorgeschlagen.

Stufe 1: Methodik

  • Einweisung in Text-Klassifikationsmethodik
  • Übergabe und Installation der vorhandenen Lösung zur Tagcloud-Generierung
  • Übergabe und Installation der vorhandenen RapidMiner-Lösung – bzw. je nach Kundenanforderung Unterstützung der Implementierung vor Ort
  • Übergabe und Dokumentation der Visualisierungs- und Auswertetechniken
    Bank ist in der Lage Methodik eigenständig zu verwenden und weiterzuentwickeln

Stufe 2: Customizing

  • Stufe 1 und zusätzlich
  • Anpassung und ggf. Neuerstellung von Referenzgruppen gemäß Portfolien der jeweiligen Bank
  • Durchführung von Analysen und Methodenoptimierung anhand der Portfolien und Kundenhistorie der Bank
  • Anpassung der RSS-Quellen
    Entwicklung einer Prozessbeschreibung für einen effizienten Einsatz
  • Kommunikation und Dokumentation der Ergebnisse an alle Stakeholder
    Kunde verfügt über gecustomizte Verfahren und Prozesse zur Analyse von Nachrichtentexten

Stufe 3: IT-Lösung

  • Stufe 1, Stufe 2 und zusätzlich
  • Spezifikation aller Anforderungen für eine automatisierte, ggf. webbasierte IT-Lösung
  • Vorschlag und Kontaktierung möglicher Anbieter
  • Unterstützung bei der Anbieter- und Tool-Auswahl
  • Unterstützung bei der Planung der Umsetzung
  • Fachliche und koordinative Begleitung des Umsetzungsprojekts
  • Fachlicher Support nach Implementierung der IT-Lösung
    Bank verfügt über automatisierte IT-Lösung zur nachrichtenbasierten Früherkennung von Insolvenzsignalen.

Je nach Kundenwunsch ist eine flexible Ausgestaltung möglich. Gerne erläutern wir unseren Ansatz auch im Rahmen eines Vorab-Workshops.

Kontakt

Dr. Dimitrios Geromichalos
Founder / CEO
RiskDataScience UG (haftungsbeschränkt)
Theresienhöhe 28, 80339 München
E-Mail: riskdatascience@web.de
Telefon: +4989244407277, Fax: +4989244407001
Twitter: @riskdatascience

Machine Learning-basierte Einstufung und Klassifikation regulatorischer Anforderungen

Übersicht Problemstellung und Angebot

Die im Zuge der Finanzkrise ab 2007 beschlossenen Regularien stellen Banken vor kaum zu bewältigende Herausforderungen. Gleichzeitig stehen den Banken beträchtliche Wissensressourcen zur Verfügung, die für die Bewältigung der Aufgaben genutzt werden können, aufgrund ihres Umfangs und ihrer Komplexität jedoch sehr aufwendige Analysen erfordern. Machine Learning-Verfahren ermöglichen die Nutzung der vorhandenen Wissensressourcen mit einer bisher nicht dagewesenen Effizienz und Effektivität.
RiskDataScience verfügt diesbezüglich über bereits entwickelte Kategorien und Algorithmen zur Klassifizierung und Gruppierung von Texten mit regulatorischem Bezug. Der regulatorische Einsatz von Machine Learning-Verfahren kann hierbei flexibel ausgestaltet werden.
Damit können Zusammenhänge zwischen den Regularien erkannt, Stakeholder, Verfahren und Projektabhängigkeiten frühzeitig identifiziert und Probleme antizipiert und vermieden werden. Banken können zudem Projektkosten senken und Planungen optimieren. Außerdem wird eine zeitnahe Einstufung der Auswirkungen erleichtert.

Regulatorische Herausforderungen

Regularien wie IFRS 9, BCBS 239, FTRB, IRRBB oder die MaRisk-Novelle 2016 erfordern grundlegende Änderungen in den Methoden, Prozessen und/oder Systemen der Banken. Viele Regularien haben zudem weitreichende Auswirkungen auf die Risiken, das Eigenkapital und damit das Geschäftsmodell der betroffenen Banken. Die große Anzahl der finalen bzw. in Konsultation befindlichen Regularien gestaltet ein angemessenes Monitoring der Anforderungen und Auswirkungen schwierig.

Weitere Komplikationen ergeben sich aus der Interaktion der Anforderungen. Die Regularien können verschiedene, miteinander zusammenhängende, Bereiche der Banken, wie Risk, Handel, Finance oder die IT betreffen. Bereits laufende Projekte (inklusive der Projektziele) können ebenfalls von Regularien betroffen sein und müssen ggf. angepasst werden. Bei regulatorischen Umsetzungsprojekten kann es daher zu zeitlichen und inhaltlichen Abhängigkeiten sowie Zielkonflikten zwischen den Projekten kommen.

Dementsprechend finden in den Banken unzählige Vorstudien und Umsetzungsprojekte statt. Zahlreiche Beratungsunternehmen führen hierbei Projekte durch, die sich oft durch lange Laufzeiten und einen hohen Ressourcenbedarf auszeichnen. Die Projekte binden außerdem interne Ressourcen und verschärfen bereits vorhandene Personalengpässe.
Generell ist die externe Unterstützung kostspielig und erhöht den Koordinationsaufwand, insbesondere bei mehreren Dienstleistern. Fehler in Vorstudien und Projekt-Anfangsphasen lassen sich zudem nur schwer korrigieren. Aufgrund der hohen Projekt-Komplexität besteht schließlich das Risiko, dass Auswirkungen und Interdependenzen nicht rechtzeitig erkannt werden.

Wissensressourcen zur Aufgabenbewältigung

Als externe Ressourcen stehen den Banken zunächst Originaltexte der Regularien sowie der Konsultationen zur Verfügung, die für gewöhnlich frei erhältlich sind. Zahlreiche einschlägige Online-Portale veröffentlichen regelmäßig Artikel über Inhalt und Auswirkungen der regulatorischen Anforderungen. Verschiedene Beratungsunternehmen, insbesondere die Big 4, stellen den Banken außerdem freie Artikel, Whitepapers und Newsletters zur Verfügung. Somit kann dann Internet in gewissem Umfang bereits als Medium für Vorab-Analysen aufgefasst werden.

Intern haben die Banken bereits umfangreiche Erfahrungen durch bereits abgeschlossene oder aktuell laufende Projekte gesammelt, wie Projektdokumentationen oder Lessons Learned. Banken verfügen zusätzlich über umfangreiche Dokumentationen der eingesetzten Methoden, Prozesse und Systeme sowie der Zuständigkeiten und organisatorischen Gegebenheiten. Interne Blogs, etc. bündeln darüber hinaus die Expertise der Mitarbeiter. Teil-Analysen sind damit bereits in beträchtlichem Umfang vorhanden.

Wissensnutzung durch Machine Learning-Verfahren

Methoden und Tools

Für die Analyse der regulatorischen sowie der sich hierauf beziehenden Texte kommen verschiedene Text Mining-Methoden aus dem Bereich Data Science / Machine Learning in Betracht, die sich in folgende Kategorien einteilen lassen.

  • Supervised Learning: Die Algorithmen werden mit bekannten Datensätzen darauf „trainiert“ Texte den jeweiligen Regularien zuzuordnen. „Unbekannte“ Texte können anschließend bekannten Regularien mit bestimmten Konfidenzen zugeordnet werden. Diese Verfahren eignen sich insbesondere zur Zuordnung neuer Texte zu bereits bekannten Regularien sowie zur Identifizierung von Ähnlichkeits-Kriterien (Stopword-Listen, s.u.).
  • Unsupervised Learning: Hierbei werden „natürliche“ Cluster gebildet, die Regularien können unmittelbar gemäß Ähnlichkeitskriterien gruppiert werden. Neue Regularien können damit mit bereits bekannten verglichen werden.

Die Analysen erfordern Programme auf der Basis entsprechender Analysetools, wie z.B. R oder RapidMiner.

Mining-Vorbereitung

Der erste Schritt ist die Bildung von Ähnlichkeits-Kategorien anhand derer Ähnlichkeiten und Zusammenhänge festgestellt werden sollen. Mögliche Kategorien sind z.B. Risikobezug, Auswirkung auf Kapital, Organisations-Aspekte oder Zielgruppen. Die Bildung der Kategorien sowie der entsprechenden Wortlisten erfordert fundierte fachliche Expertise

Auf Basis der Kategorien sind Wortlisten (bzw. Stopword-Listen, d.h. Ausschlusslisten) zu bilden, anhand derer die Analysen durchgeführt werden sollen. Die eingelesenen und vorverarbeiteten Texte müssen gemäß der zu untersuchenden gefiltert werden.

Mining-Durchführung

Basis für die Mining-Durchführung sind die aus den gefilterten Texten gebildeten Term Document Matrices.
Nach Anpassung der Stopwortlisten können „neue“ Regularien mit bereits bekannten „Backbone-Regularien“ verglichen werden. Die Resultate können dazu verwendet werden die Stopwortlisten weiter zu optimieren und z.B. in Form von Spinnendiagrammen dargestellt werden.
Mit den optimierten Stopwortlisten können anschließend Gruppierungen vorgenommen und in Form von Baumdiagrammen dargestellt werden.

Vorteile einer automatisierten Untersuchung

Kostensenkung

Regulatorische Umsetzungsprojekte sind für Banken einer der größten Kostentreiber. Mit einem Bedarf an mehreren hundert Mitarbeitern können die Kosten im dreistelligen Millionenbereich liegen. Dementsprechend sind die Vorstudien hierzu von großer Bedeutung. Diese beinhalten u.a. die Dokumentklassifikation, Stakeholderermittlung, Relevanzeinstufung, Gap-Analyse und Planung der Umsetzung. Vorstudien sind ihrerseits kostspielig und wirken sich darüber hinaus über die Planung auf die Kosten der Umsetzungsprojekte aus.
Die Kosten automatisierter Analysen sind vergleichsweise marginal. Dennoch können mehrere Aufgaben von Vorstudien, wie die Dokumentklassifikation, die Stakeholderermittlung oder Relevanzeinstufung mit übernommen und optimiert werden.
Damit sinken die Kosten von Vorstudien aufgrund des geringeren Personalbedarfs. Frei werdende Mittel können  effektiver eingesetzt werden, indem z.B. weniger und dafür erfahrene Berater engagiert werden.
Zudem kann die Planung der Umsetzung hinsichtlich möglicherweise irrelevanter Punkte kontrolliert werden.

Fehlerreduktion

Automatische Analysen stellen eine effiziente Zusatzkontrolle dar, die dazu beiträgt Projektrisiken – etwa durch Planungsfehler – zu minimieren.
Nichttriviale – und möglicherweise übersehene – Interdependenzen zwischen Programmen und Projekten können identifiziert und in der Planung berücksichtigt werden.
Ergebnisse von Vorstudien und Aussagen externer Dienstleister können damit eigenständig überprüft werden.

Antizipation

Banken werden mit ständig neuen Konsultationspapieren konfrontiert, zu denen sie Stellung beziehen müssen. Eine rechtzeitige Analyse aller Aspekte ist kostspielig und fehleranfällig.
Automatische Analysen können hingegen per definitionem sehr schnell und standardisiert durchgeführt werden. Damit können Auswirkungen auf das Geschäftsmodell rechtzeitig antizipiert und in die Stellungnahmen einbezogen werden.

Anwendungsbeispiel: Analyse der neuen MaRisk-Novelle 2016

Das im Folgenden beschriebene Anwendungsbeispiel basiert auf einem bereits entwickelten Prototypen (MVP) und extern verfügbaren Daten. Obwohl auch damit bereits die unten skizzierten Einsichten gewonnen werden können, wird der volle Nutzen erst mit der Analyse zusätzlicher bankinterner Texte erreicht.

Allgemeines

Mit einem RapidMiner-Prototypen wurden Ähnlichkeiten zwischen der MaRisk-Novelle 2016 sowie BCBS 239, FRTB, IRRBB, Prudent Valuation und SA-CCR untersucht.
Die Analysen wurden für die von RiskDataScience entwickelten Ähnlichkeitskategorien „Data“ (Datenbezug), „Function“ (Bank-Einheiten), Impact (Auswirkungen auf Projekte und Eigenkapital), Overall (allgemein), Regul (Regulatoren und Zielgruppen) und Risk (Risikoarten und Methoden) durchgeführt.
Die dargestellten Tagclouds geben einen exemplarischen Überblick über den Inhalt einiger Textkorpi.

Tagcloud Textkorpus FRTB

 

Tagcloud Textkorpus MaRisk-Novelle 2016

 

Tagcloud Textkorpus BCBS 239

Bereits anhand der Tagclouds ist somit eine starke Ähnlichkeit zwischen der MaRisk-Novelle 2016 und BCBS 239 (im Gegensatz zu FRTB) ersichtlich.

Textklassifikation

Die RapidMiner-Lösung wurde mit Textkorpi zu den Regularien BCBS 239, Prudent Valuation, IFRS 9, FRTB, IRRBB und SA-CCR trainiert.
Die Texte zur MaRisk-Novelle 2016 wurden als „unbekannt“ angenommen und vom trainierten Algorithmus den jeweiligen „bekannten“ Regularien zugeordnet. Die Visualisierung erfolgte mittels Spinnendiagrammen.

Wie erwartet gibt es in allen Bereichen eine starke Ähnlichkeit zwischen der MaRisk-Novelle 2016 und BCBS 239.

Textclustering

Im Rahmen der Validierung der Textklassifikation wurden die Wortlisten für die Ähnlichkeitskategorien soweit optimiert, bis sie für ein Clustering verwendet werden konnten.
Beim Clustering konnten alle betrachteten Regularien zugleich nach Ähnlichkeiten bzgl. der jeweiligen Kategorie gruppiert werden.
Durch Variation der Cluster-Größe im entsprechenden RapidMiner-Algorithmus wurde eine hierarchische Struktur aufgebaut und als Baumdiagramm visualisiert.

Auch hier gibt es starke Ähnlichkeiten zwischen der MaRisk-Novelle 2016 und BCBS 239.  Weitere starke Ähnlichkeiten existieren zwischen FRTB und IRRBB; IFRS 9 nimmt dagegen oft eine Sonderrolle ein.

Self-Organizing Maps (SOM)

Eine weitere Analyse- und Visualisierungsmöglichkeit ergibt sich mittels Self-Organizing Maps. Hierbei werden die Texte gemäß definierter Kategorien in eine aus Sechsecken bestehende Struktur so, eingeordnet, dass ähnliche Texte benachbart sind. Aufgrund der Vielzahl verschiedener Texte und der Komplexität des Problems nehmen Regularien dabei prinzipiell mehrere Felder ein. Die Farbgebung verdeutlicht zudem die „Einzigartigkeit“ verschiedener Texte.

Kategorie “Overall”

 

Kategorie “Functions”

 

Kategorie “Impact”

Wie erwartet stellt die allgemeine Sicht die MaRisk-Novelle 2016 nahe BCBS 239.  In der Funktionen-Sicht ergeben sich zudem Ähnlichkeiten zwischen FRTB, IRRBB und SA-CCR, die alle von Risk-Abteilungen wahrgenommen werden,  während sich in der Impact-Sicht IFRS 9 und FRTB – mit  Auswirkungen auf die Kapitalisierung – ähneln.

Angebotsstufen für einen regulatorischen Einsatz von Machine Learning-Verfahren

RiskDataScience ermöglicht Banken die beschriebenen Verfahren effizient und institutsspezifisch einzusetzen und weiterzuentwickeln. Entsprechend den jeweiligen Anforderungen werden dazu folgende drei Ausbaustufen vorgeschlagen.

Stufe 1: Methodik

  • Einweisung in Klassifikations- und Gruppierungsmethodik regulato-rischer Texte
  • Übergabe und Installation der vorhandenen Lösung zur Tagcloud-Generierung – bzw. je nach Kundenanforderung Unterstützung der Implementierung vor Ort
  • Übergabe und Installation der vorhandenen RapidMiner-Lösung – bzw. je nach Kundenanforderung Unterstützung der Implementierung vor Ort
  • Übergabe und Dokumentation der Visualisierungs- und Auswertetechniken
    Bank ist in der Lage Methodik eigenständig zu verwenden und weiterzuentwickeln

Stufe 2: Customizing

  • Stufe 1 und zusätzlich
  • Anpassung und ggf. Neuerstellung regulatorischer Ähnlichkeitskategorien gemäß Gegebenheiten der jeweiligen Bank
  • Analyse der konkreten Regularien, Projekte, Methoden, Prozesse und Systeme zur Identifizierung optimaler Einsatzmöglichkeiten
  • Entwicklung einer Prozessbeschreibung für einen effizienten Einsatz
  • Kommunikation und Dokumentation der Ergebnisse an alle Stakeholder
    Bank verfügt über gecustomizte Verfahren und Prozesse zur Analyse regulatorischer Anforderungen

Stufe 3: IT-Lösung

  • Stufe 1, Stufe 2 und zusätzlich
  • Spezifikation aller Anforderungen für eine automatisierte, ggf. webbasierte IT-Lösung
  • Vorschlag und Kontaktierung möglicher Anbieter
  • Unterstützung bei der Anbieter- und Tool-Auswahl
  • Unterstützung bei der Planung der Umsetzung
  • Fachliche und koordinative Begleitung des Umsetzungsprojekts
  • Fachlicher Support nach Implementierung der IT-Lösung
    Bank verfügt über automatisierte IT-Lösung zur effizienten Klassifizierung und Gruppierung regulatorisch relevanter Texte

Je nach Kundenwunsch ist eine flexible Ausgestaltung möglich. Gerne erläutern wir unseren Ansatz auch im Rahmen eines Vorab-Workshops.

Kontakt

Dr. Dimitrios Geromichalos
Founder / CEO
RiskDataScience UG (haftungsbeschränkt)
Theresienhöhe 28, 80339 München
E-Mail: riskdatascience@web.de
Telefon: +4989244407277, Fax: +4989244407001
Twitter: @riskdatascience