Automatisierte semantische Analyse regulatorischer Texte

Überblick

Umfang und Komplexität regulatorischer Anforderungen stellen Banken bereits bei deren Analyse vor erhebliche Herausforderungen. Zudem müssen Banken – oft ad-hoc – Anfragen von Regulatoren bearbeiten und sich zeitnah zu Konsultationspapieren äußern.

Verfahren aus den Bereichen NLP und Machine Learning ermöglichen die effektive und effiziente Nutzung vorhandener Wissensressourcen.

Unsere Applikation Regulytics® ermöglicht die automatisierte Analyse regulatorischer sowie interner Texte nach inhaltlichen Gesichtspunkten.
Die App liefert keine umständliche allgemeine Berichte, sondern prägnante, ​​maßgeschneiderte und sofortige Informationen zu inhaltlichen Ähnlichkeiten.
Damit können regulatorisch relevante Texte objektiv in den Gesamtkontext eingeordnet werden. Ähnliche Paragraphen in Regularien und internen Dokumenten können ebenso ermittelt werden wie Unterschiede in verschiedenen Dokument-Versionen.

Regulatorische Herausforderungen

Regularien wie IFRS 9, BCBS 239, FTRB, IRRBB oder die MaRisk-Novelle 2017 erfordern grundlegende Änderungen in Methoden, Prozessen und/oder Systemen der Banken.
Viele Regularien haben weitreichende Auswirkungen auf die Risiken, das Eigenkapital und damit das Geschäftsmodell der betroffenen Banken.
Die große Anzahl der finalen bzw. in Konsultation befindlichen Regularien gestaltet ein Monitoring der Anforderungen und Auswirkungen schwierig.

Die Regularien können verschiedene, miteinander zusammenhängende, Bereiche der Banken, wie Risk, Handel, Finance oder die IT betreffen.
Zudem existieren auch Zusammenhänge zwischen den Regularien; Gaps zu einer Anforderung entsprechen i.d.R. auch Gaps zu weiteren Anforderungen.
Die i.A. unterschiedliche Gesetzgebung in den verschiedenen Jurisdiktionen erhöht die Komplexität nochmals beträchtlich.

Innerhalb der Banken finden Auswirkungsanalysen und Vorstudien statt, um die Relevanz der Projekte einzustufen.
Zahlreiche Beratungsunternehmen führen Vorstudien sowie die eigentlichen Umsetzungsprojekte durch, die sich oft durch lange Laufzeiten und einen hohen Ressourcenbedarf auszeichnen.
Projekte binden interne Ressourcen und verschärfen Personalengpässe.
Externe Unterstützung ist kostspielig und erhöht den Koordinationsaufwand, insb. bei mehreren Dienstleistern.
Fehler in Vorstudien und Projekt-Anfangsphasen lassen sich nur schwer korrigieren.
Aufgrund der hohen Komplexität besteht Risiko, dass Auswirkungen und Interdependenzen nicht rechtzeitig erkannt werden.

Vorteile einer automatisierten Untersuchung

Geschwindigkeitssteigerung

Automatische Analysen können per definitionem sehr schnell und standardisiert durchgeführt werden.
Selbst mit herkömmlichen Laptops können binnen Minuten semantische Ähnlichkeiten in Dutzenden komplexer Regularien analysiert werden.
Damit können – etwa im Falle von Konsultationspapieren – Zuständigkeiten und Auswirkungen rechtzeitig erkannt und in die Stellungnahmen einbezogen werden.

Ressourcenschonung

Unsere Lösung ist – je nach Ausprägung – ohne spezielle Hard- und Software-Anforderungen lauffähig.
Der personelle Aufwand für die Nutzung und ggf. Weiterentwicklung ist äußerst gering und von der Anzahl der betrachteten Regularien weitgehend unabhängig.
Engpässe werden reduziert und Experten können sich auf anspruchsvolle Tätigkeiten fokussieren.
Entsprechend lassen sich Projektkosten reduzieren.

Objektivität

Die Ähnlichkeiten zwischen den Regularien auf Gesamt- und Paragraphen-Ebene liegen quantitativ vor und sind jederzeit reproduzierbar.
Unterschiede durch subjektive Präferenzen sind damit praktisch ausgeschlossen.
Analysen lassen sich nachvollziehbar dokumentieren.
Ergebnisse von Vorstudien und Aussagen externer Dienstleister können unvoreingenommen überprüft werden.

Fehlerreduktion

Automatische Analysen stellen eine effiziente Zusatzkontrolle dar.
Nichttriviale – und möglicherweise übersehene – Interdependenzen zwischen Regularien können identifiziert und berücksichtigt werden.
Insbesondere Flüchtigkeitsfehler sowie das Übersehen ggf. wichtiger Passagen lassen sich damit verringern.
Ggf. unbemerkte Gaps und Impacts können darüber hinaus entdeckt werden.

Wissensnutzung mittels Topic Analysis

Methoden und Tools

Die Verfahren des Natural Language Processing (NLP) im hier verwendeten Sinne ermöglichen semantische Analysen von Texten anhand darin vorkommender Themen (Topics) zur Identifizierung von Ähnlichkeiten bei beliebiger Granularität.
Bei der verwendeten Methode Latent Semantic Analysis (LSA bzw. Latent Semantic Indexing, LSI) erfolgt eine Reduktion der betrachteten Begriffe auf eine vorgegebene Anzahl von Themen und hierdurch eine Abbildung von Texten auf einen „semantischen Raum“.
Die Topic-Ermittlung entspricht dabei einem Unsupervised Learning-Prozess anhand vorgegebener Dokumente.
Neue Texte und Text-Komponenten können anschließend auf semantische Ähnlichkeiten hin untersucht werden.
Die Analysen erfordern Programme auf der Basis entsprechender Analysetools, wie z.B. Python oder R.

Angebotsstufen für einen regulatorischen Einsatz von Machine Learning-Verfahren

RiskDataScience ermöglicht Banken die beschriebenen Verfahren effizient und institutsspezifisch einzusetzen und weiterzuentwickeln. Entsprechend den jeweiligen Anforderungen werden dazu folgende drei Ausbaustufen vorgeschlagen.

Stufe 1: Methodik

  • Einweisung in Methodik zum Latent Semantic Indexing regulatorischer Texte
  • Übergabe und Installation der vorhandenen Python-Lösung zum automatisierten Einlesen und Zerlegen von Dokumenten sowie zur semantischen Analyse per LSI – bzw. je nach Kundenanforderung Unterstützung der Implementierung vor Ort
  • Übergabe und Dokumentation der Visualisierungs- und Auswertetechniken

Bank ist in der Lage, Methodik zur Analyse regulatorischer Anforderungen eigenständig zu verwenden und weiterzuentwickeln

Stufe 2: Customizing

  • Stufe 1 und zusätzlich
  • Anpassung von Analyse-Einheiten (Dokument-Gruppen) gemäß Analysezielen der jeweiligen Bank
  • Analyse der konkreten Regularien, Projekte, Methoden, Prozesse und Systeme zur Identifizierung optimaler Einsatzmöglichkeiten
  • Entwicklung von Prozessen zur Erreichung der Analyseziele
  • Kommunikation und Dokumentation der Ergebnisse an alle Stakeholder

Bank verfügt über gecustomizte Verfahren und Prozesse zur Analyse regulatorischer Anforderungen, etwa bzgl. Zuständigkeiten oder Methoden

Stufe 3: IT-Lösung

  • Stufe 1, Stufe 2 und zusätzlich
  • Spezifikation aller Anforderungen für eine automatisierte, ggf. web-basierte IT-Lösung
  • Vorschlag und Kontaktierung möglicher Anbieter
  • Unterstützung bei der Anbieter- und Tool-Auswahl
  • Unterstützung bei der Planung der Umsetzung
  • Fachliche und koordinative Begleitung des Umsetzungsprojekts
  • Fachlicher Support nach Implementierung der IT-Lösung

Bank verfügt über automatisierte IT-Lösung zum effizienten semantischen Abgleich regulatorisch relevanter Textkomponenten.

Je nach Kundenwunsch ist eine flexible Ausgestaltung möglich. Gerne erläutern wir unseren Ansatz auch im Rahmen eines Vorab-Workshops.

 

Kontakt

Dr. Dimitrios Geromichalos
Founder / CEO
RiskDataScience GmbH
Nördliche Münchner Straße 47, 82031 Grünwald
E-Mail: riskdatascience@web.de
Telefon: +4989322096365

 

 

Machine Learning-basierte Klassifizierungen von Marktphasen

Einleitung

Die Erfahrung der letzten Jahre sowie Forschungsergebnisse und regulatorische Anforderungen legen eine Berücksichtigung von unterschiedlichen Marktsituationen bzw. Marktphasen nahe. Trotzdem basiert der Großteil des heutigen Finanz-Risikomanagements noch immer auf der Annahme konstanter Marktbedingungen.
Zur Zeit werden im Allgemeinen weder „gestresste“ Marktphasen noch potentielle Blasen auf objektive Art und Weise bestimmt.
Machine Learning-Verfahren ermöglichen jedoch eine
Zuordnung nach Risikoaspekten und eine Klassifizierung der gegenwärtigen Marktsituation.

RiskDataScience hat Verfahren entwickelt, um Marktphasen zu identifizieren. Marktsituationen können dabei auf Basis flexibler Kriterien anhand historischer Zeitreihen bestimmt und die gegenwärtigen Bedingungen den betreffenden Phasen zugeordnet werden. Somit ist es möglich zu bestimmen, ob die gegenwärtige Situation mit vergangenen Blasen- oder Stress-Phasen korrespondiert. Historische Stress-Szenarien können zudem systematisch erkannt werden.

Marktphasen

Im Gegensatz zur Effizienzmarkttheorie sind Märkte von Übertreibungen und Panik (New Economy, Immobilienblase etc.) gekennzeichnet.
Krisen entfalten dabei ihre eigenen Regeln – wie erhöhte Korrelationen – und verhalten sich anders als „normale“ Phasen. Im Zuge der Krisen von 2007 und 2008 hat sich die Situation mehrere Male dramatisch verändert (Negativzinsen, Quantitative Easing usw.)

Die Regulierungsbehörden haben erkannt, dass sich die Situation von Märkten in beträchtlichem Maße voneinander unterscheiden kann, und fordern entsprechend eine Betrachtung gestresster Marktphasen z. B. bei der

  • Bestimmung „gestresster VaR“-Perioden
  • Definition relevanter Stress-Szenarien

Im herkömmlichen Marktrisiko-Management von Finanzinstituten werden jedoch weiterhin nur einheitliche Marktbedingungen betrachtet (z.B. in konventionellen Monte-Carlo-Simulationen).
Historische Simulationen betrachten zwar implizit Marktphasen, sie liefern jedoch keine Aussagen darüber, welche Phase auf welche spezifische Situation angewendet werden kann.
Zudem konnten sich Modelle wie
GARCH oder ARIMA außerhalb der akademischen Forschung nicht durchsetzen.

Die Vernachlässigung von Marktphasen birgt zahlreiche Probleme und Risiken.
Zum einen kann eine nicht-objektive Bestimmung gestresster Marktphasen für regulatorische Anwendungen zu Anmerkungen interner und externer
Prüfer führen. Zudem können möglicherweise entscheidende Kapitalerleichterungen nicht gewährt werden, da ein weniger konservativer Ansatz nicht objektiv gerechtfertigt werden kann.
Außerdem
erhöht das Ignorieren einer möglicherweise gefährlichen gegenwärtigen Marktsituation das Risiko von Verlusten durch Marktpreisfluktuationen. Des Weiteren werden Blasen nicht zeitnah erkannt und die „Spielregeln“ von Krisen (wie vermehrte Korrelationen) nicht angemessen berücksichtigt.
Andererseits kann ein zu vorsichtiger Ansatz zu
verpassten Möglichkeiten führen.

Machine Learning-Ansätze

Für die Analyse relevanter Marktdaten können zahlreiche Algorithmen aus den Bereichen Data Science / Machine Learning herangezogen und mit geeigneten Tools implementiert werden.

 

  • Unsupervised Learning-Algorithmen: Diese Algorithmen können für die Bestimmung „natürlicher“ Cluster und die Gruppierung von Marktdaten verwendet werden. Dies erfordert geeignete Algorithmen sowie Fachwissen in den Bereichen Wirtschaft und Finanzen. Zudem können auch Ausreißer-Algorithmen verwendet werden, um unregelmäßige Marktsituationen zu erkennen. Dies kann z.B. als Basis für Stresstest-Szenarien dienen.
  • Supervised Learning-Algorithmen: Hier werden die Algorithmen mit vorhandenen Datensätzen „trainiert“, um Marktsituationen zu klassifizieren. Anschließend können die neuen Daten – und besonders die aktuelle Situation – den Marktphasen zugeordnet werden.

Als Basis für eine risikoorientierte Analyse müssen dabei Marktdaten-Differenzen (z.B. im Falle von Zinsen) oder Renditen (z.B. im Falle von Aktienkursen) aus Marktdaten-Zeitreihen berechnet werden. Des Weiteren sollte ein „Windowing“-Verfahren durchgeführt, d.h. die relevanten Werte der vergangenen Tage müssen als zusätzliche Variablen betrachtet werden.

Die Methoden können dabei ausgeweitet werden, um auch bei komplexeren Fällen und Problemstellungen Lösungen zu ermöglichen, z.B. in spezialisierten Märkten wie den Strommarkt, der Bepreisung von Cloud-Services oder für Muster und Regeln, die für den Hochfrequenzhandel (HFT) charakteristisch sind.

 

RiskDataScience hat Methoden und Tools entwickelt, eine effiziente Ermittlung und Analyse von Marktphasen mithilfe von Machine Learning-Verfahren ermöglichen.
Gerne unterstützen wir Sie bei der Anpassung, der Einführung und dem Einsatz dieser Verfahren und stehen Ihnen bei Rückfragen gerne zur Verfügung.

Kontakt

Dr. Dimitrios Geromichalos
Founder / CEO
RiskDataScience GmbH
Nördliche Münchner Straße 47, 82031 Grünwald
E-Mail: riskdatascience@web.de
Telefon: +4989322096365

 

Das Risiko von Data Science-Verfahren – Ermittlung eines Klassifizierungs-VaR

Klassifizierungs-Algorithmen werden weit verbreitet eingesetzt, um eine Vielzahl von möglichen negativen Ereignissen zu erkennen, wie etwa Betrug oder Insolvenzen.
Die Zuverlässigkeit dieser Klassifizierungen wird dabei im Allgemeinen mit Metriken, wie Accuracy, Precision oder Recall gemessen.
Unternehmen, die Klassifizierungs-Algorithmen verwenden, möchten jedoch im Allgemeinen auch das tatsächliche finanzielle Ausmaß des Schadens erfahren.
Und hierbei sind sie oftmals nicht nur am zu erwartenden Ausmaß, sondern auch am möglichen Ausmaß im Worst-Case interessiert.
Somit sind klassische Risikokennzahlen für die Klassifizierung von Vorhersagen (wie z.B. das Value at Risk; VaR) sehr hilfreich.

 

RiskDataScience hat entsprechende Methoden und Tools entwickelt und unterstützt Sie bei der Auswahl und der Anwendung geeigneter Data Science-Verfahren für Ihr Unternehmen.

Kontakt

Dr. Dimitrios Geromichalos
Founder / CEO
RiskDataScience GmbH
Nördliche Münchner Straße 47, 82031 Grünwald
E-Mail: riskdatascience@web.de
Telefon: +4989322096365

 

Machine Learning-basiertes Kreditrating-Frühwarnsystem

Übersicht Problemstellung und Angebot

Als wichtige Risikoart werden Kreditrisiken mit anspruchsvollen Rating-Verfahren quantifiziert. Aufgrund der aufwendigen Erstellung und fehlender aktueller Bilanzdaten liegen Ratings jedoch nur zeitverzögert vor. Für aktuelle Kreditrisikosignale wurden von Banken daher bereits marktdaten-basierte Frühwarnsysteme eingeführt, die aber keine Indikationen im Falle fehlender Marktdaten liefern können.
Andererseits liefern im Internet vorhandene Unternehmensnachrichten oft wichtige Informationen über Probleme und Schieflagen (siehe auch Nachrichtenbasierte Frühwarnsysteme).
RiskDataScience verfügt über bereits entwickelte Algorithmen zur automatischen Ermittlung und Klassifizierung von Nachrichten-Texten hinsichtlich Insolvenz-Relevanz (News-Based Early Warning).
Damit können Banken aus Nachrichtentexten wertvolle Zusatz-Informationen über drohende Insolvenzen gewinnen. Eine Früherkennung von Kreditrisiken ist damit auch für nichtgelistete Unternehmen ohne direkte Marktdaten möglich.

Kreditrisiko-Messung

Allgemeines

Unter Kreditrisiken versteht man Risiken durch Kreditereignisse, wie Zahlungsausfall, Zahlungsverzug, Herabstufung der Kreditwürdigkeit oder Einfrierung der Währung.
Eine weitere Unterscheidung betrifft die Einteilung in Emittenten- (bei Anleihen), Kontrahenten- (bei Derivate-Geschäften) und – die im Folgenden betrachteten – Kreditausfallrisiken von Kreditnehmern i.e.S.
Kreditrisiken bilden oft das größte Bank-Risiko und müssen – neben Markt- und operationellen Risiken – gemäß Basel II/III mit Eigenkapital unterlegt werden.

Eine häufig herangezogene Kennzahl zur Quantifizierung  von Kreditrisiken ist der erwartete Verlust (Expected Loss) eines Kredits. Dieser ergibt sich im einfachsten Fall als Produkt aus

  • PD: Probability of Default, Ausfall-Wahrscheinlichkeit
  • LGD: Loss Given Default, eins minus Wiederverwertungsrate
  • EaD: Exposure at Default, ausstehendes Kreditvolumen

Externe und interne Kreditratings messen hauptsächlich die PD (und z.T. den LGD) und werden mit aufwendigen Verfahren ermittelt.

Ermittlung und Früherkennung

Die Verfahren zur Ermittlung der PD erfordern fundierte statistische Analysen auf Basis von

  • quantitativen Bilanzkennzahlen wie Verschuldungsgrad, Eigenkapitalquote und EBIT
  • qualitativen Analysten-Kennzahlen wie Qualität des Managements, Zukunftsaussichten und Marktstellung
  • allgemeinen Marktdaten wie Zinsen, Inflation und Wechselkursen.

Die Ratingmodelle müssen regelmäßig anhand tatsächlicher Kreditereignisse validiert und gegebenenfalls angepasst werden.
Kreditratings liegen deshalb meist verzögert – oftmals nur jährlich – vor.
Zur Behebung dieses Problems wurden marktdatenbasierte Frühwarnsysteme eingeführt, die Signale auf der Basis signifikanter Änderungen von Aktienkursen, Credit Spreads oder weiterer mit dem Rating korrelierter Marktdaten liefern. Im Allgemeinen können damit allerdings nur systematische bzw. Risiken gelisteter Unternehmen erkannt werden.

Informationen aus Nachrichten

Allgemeines

Die Gründe für Insolvenzen sind oft unternehmensspezifisch (idiosynkratisch) und können nicht aus allgemeinen Marktentwicklungen abgeleitet werden. Beispiele hierfür sind

  • Betrugsfälle durch das Management
  • Insolvenz eines wichtigen Kunden bzw. Lieferanten
  • Auftreten eines neuen Konkurrenten

Negative Ereignisse wie Werkschließungen, Kurzarbeit, Ermittlungen und Anklagen gehen dabei der eigentlichen Insolvenz zum Teil um mehrere Monate voraus.

Im Falle nichtgelisteter Unternehmen ist dennoch keine marktdatenbasierte Frühwarnung möglich. Hingegen liefern Nachrichten auch in diesen Fällen aktuelle und oftmals insolvenzrelevante Informationen.
Nachrichtenportale, Blogs, Soziale Medien und insbesondere Lokalzeitungen informieren dabei online über Probleme von Unternehmen.
Durch die effiziente Nutzung von Texten ist somit eine Erweiterung der Frühwarnung auf nichtgelistete Unternehmen möglich.

Effiziente Nachrichten-Analyse

Verfahren zur effizienten Analyse von Texten sind Voraussetzung um die relevanten Nachrichten zu identifizieren und darauf aufbauend mögliche Insolvenzen zu antizipieren. Hierfür notwendig sind

  • eine rechtzeitige Identifizierung relevanter Datenquellen (Zeitungen, RSS-Feeds, etc.)
  • ein Einlesen der relevanten Nachrichten zu allen Kunden anhand vorgegebener Muss- und Ausschlusskriterien
  • eine zeitnahe Klassifikation der relevanten Texte anhand möglicher Insolvenzrisiken
  • eine sofortige Analyse und Visualisierung der Ergebnisse zur Erkennung von Risiken

Bereits realisierte Machine Learning-Algorithmen dienen als Basis für diese zunächst unmöglich erscheinende Aufgabe.

Wissensnutzung durch Machine Learning-Verfahren

Einlesen

Im ersten Schritt müssen alle relevanten Nachrichtenquellen anhand einer hinreichend großen Stichprobe zu untersuchender Unternehmen identifiziert und irrelevante Quellen möglichst ausgeschlossen werden.
Die Gewinnung der relevanten Texte aus diesen Quellen kann z.B. über folgende Verfahren erfolgen

  • Bezug von Pressetexten über entsprechende Dienstleister
  • direktes Abgreifen freier RSS-Feeds

Die Nachrichten sind dabei nach Relevanz zu filtern. Zur Vermeidung von Verwechslungen aufgrund des Namens oder irrtümlicher Textbausteine (z.B. bzgl. Aktien) sind Wortfilter und ggf. komplexe Textanalysen notwendig.

Klassifikation

Für die Klassifizierung der gewonnenen Nachrichtentexte kommen verschiedene Text Mining-Methoden aus dem Bereich Data Science / Machine Learning in Betracht. Beim Supervised Learning wird dabei wie folgt vorgegangen

  • zunächst werden manuell die Wörter ermittelt, die für die Klassifikation irrelevant sind („Stopwords“)
  • die Algorithmen werden dann mit bekannten Datensätzen darauf „trainiert“ Texte Kategorien zuzuordnen
  • neue Texte können anschließend bekannten Kategorien mit bestimmten Konfidenzen zugeordnet werden

Methodisch sind dabei folgende Schritte durchzuführen

  • aus den gefilterten Texten werden signifikante Wortstämme/Wortstamm-Kombinationen („n-grams“) ermittelt
  • die Texte werden als Punkte in einem hochdimensionalen Raum (mit den n-grams als Dimensionen) abgebildet
  • Machine Learning-Verfahren ermitteln Gesetzmäßigkeiten zur Trennung der Punkte nach Kategorien. Hierfür bieten sich dezidierte Algorithmen wie naive Bayes, W-Logistic oder Support Vector Machine an.

Die Analysen erfordern Programme auf der Basis entsprechender Analysetools, wie z.B. R oder RapidMiner.

Angebotsstufen für einen Einsatz von Machine Learning-Verfahren zur Kreditrisiko-Früherkennung

RiskDataScience ermöglicht Banken die beschriebenen Verfahren effizient und institutsspezifisch einzusetzen und weiterzuentwickeln. Entsprechend den jeweiligen Anforderungen werden dazu folgende drei Ausbaustufen vorgeschlagen.

Stufe 1: Methodik

  • Einweisung in Text-Klassifikationsmethodik
  • Übergabe und Installation der vorhandenen Lösung zur Tagcloud-Generierung
  • Übergabe und Installation der vorhandenen RapidMiner-Lösung – bzw. je nach Kundenanforderung Unterstützung der Implementierung vor Ort
  • Übergabe und Dokumentation der Visualisierungs- und Auswertetechniken
    Bank ist in der Lage Methodik eigenständig zu verwenden und weiterzuentwickeln

Stufe 2: Customizing

  • Stufe 1 und zusätzlich
  • Anpassung und ggf. Neuerstellung von Referenzgruppen gemäß Portfolien der jeweiligen Bank
  • Durchführung von Analysen und Methodenoptimierung anhand der Portfolien und Kundenhistorie der Bank
  • Anpassung der RSS-Quellen
    Entwicklung einer Prozessbeschreibung für einen effizienten Einsatz
  • Kommunikation und Dokumentation der Ergebnisse an alle Stakeholder
    Kunde verfügt über gecustomizte Verfahren und Prozesse zur Analyse von Nachrichtentexten

Stufe 3: IT-Lösung

  • Stufe 1, Stufe 2 und zusätzlich
  • Spezifikation aller Anforderungen für eine automatisierte, ggf. webbasierte IT-Lösung
  • Vorschlag und Kontaktierung möglicher Anbieter
  • Unterstützung bei der Anbieter- und Tool-Auswahl
  • Unterstützung bei der Planung der Umsetzung
  • Fachliche und koordinative Begleitung des Umsetzungsprojekts
  • Fachlicher Support nach Implementierung der IT-Lösung
    Bank verfügt über automatisierte IT-Lösung zur nachrichtenbasierten Früherkennung von Insolvenzsignalen.

Je nach Kundenwunsch ist eine flexible Ausgestaltung möglich. Gerne erläutern wir unseren Ansatz auch im Rahmen eines Vorab-Workshops.

Kontakt

Dr. Dimitrios Geromichalos
Founder / CEO
RiskDataScience GmbH
Nördliche Münchner Straße 47, 82031 Grünwald
E-Mail: riskdatascience@web.de
Telefon: +4989322096365