Automatisierte semantische Analyse regulatorischer Texte

Überblick

Umfang und Komplexität regulatorischer Anforderungen stellen Banken bereits bei deren Analyse vor erhebliche Herausforderungen. Zudem müssen Banken – oft ad-hoc – Anfragen von Regulatoren bearbeiten und sich zeitnah zu Konsultationspapieren äußern.

Verfahren aus den Bereichen NLP und Machine Learning ermöglichen die effektive und effiziente Nutzung vorhandener Wissensressourcen.

Unsere Applikation Regulytics® ermöglicht die automatisierte Analyse regulatorischer sowie interner Texte nach inhaltlichen Gesichtspunkten.
Die App liefert keine umständliche allgemeine Berichte, sondern prägnante, ​​maßgeschneiderte und sofortige Informationen zu inhaltlichen Ähnlichkeiten.
Damit können regulatorisch relevante Texte objektiv in den Gesamtkontext eingeordnet werden. Ähnliche Paragraphen in Regularien und internen Dokumenten können ebenso ermittelt werden wie Unterschiede in verschiedenen Dokument-Versionen.
Finanzdienstleister können einen kostenlosen Test-Account für die Online-Version von Regulytics beantragen.
Zusätzlich bieten wir eine freie Regulytics-Demo-Version zur Analyse der Bauordnungen der verschiedenen deutschen Bundesländer: Link

Regulatorische Herausforderungen

Regularien wie IFRS 9, BCBS 239, FTRB, IRRBB oder die MaRisk-Novelle 2017 erfordern grundlegende Änderungen in Methoden, Prozessen und/oder Systemen der Banken.
Viele Regularien haben weitreichende Auswirkungen auf die Risiken, das Eigenkapital und damit das Geschäftsmodell der betroffenen Banken.
Die große Anzahl der finalen bzw. in Konsultation befindlichen Regularien gestaltet ein Monitoring der Anforderungen und Auswirkungen schwierig.

Die Regularien können verschiedene, miteinander zusammenhängende, Bereiche der Banken, wie Risk, Handel, Finance oder die IT betreffen.
Zudem existieren auch Zusammenhänge zwischen den Regularien; Gaps zu einer Anforderung entsprechen i.d.R. auch Gaps zu weiteren Anforderungen.
Die i.A. unterschiedliche Gesetzgebung in den verschiedenen Jurisdiktionen erhöht die Komplexität nochmals beträchtlich.

Innerhalb der Banken finden Auswirkungsanalysen und Vorstudien statt, um die Relevanz der Projekte einzustufen.
Zahlreiche Beratungsunternehmen führen Vorstudien sowie die eigentlichen Umsetzungsprojekte durch, die sich oft durch lange Laufzeiten und einen hohen Ressourcenbedarf auszeichnen.
Projekte binden interne Ressourcen und verschärfen Personalengpässe.
Externe Unterstützung ist kostspielig und erhöht den Koordinationsaufwand, insb. bei mehreren Dienstleistern.
Fehler in Vorstudien und Projekt-Anfangsphasen lassen sich nur schwer korrigieren.
Aufgrund der hohen Komplexität besteht Risiko, dass Auswirkungen und Interdependenzen nicht rechtzeitig erkannt werden.

Wissensressourcen zur Aufgabenbewältigung

Als externe Ressourcen stehen den Banken zunächst Originaltexte der Regularien sowie der Konsultationen zur Verfügung, die für gewöhnlich frei erhältlich sind. Zahlreiche einschlägige Online-Portale veröffentlichen regelmäßig Artikel über Inhalt und Auswirkungen der regulatorischen Anforderungen. Verschiedene Beratungsunternehmen, insbesondere die Big 4, stellen den Banken außerdem freie Artikel, Whitepapers und Newsletters zur Verfügung. Somit kann dann Internet in gewissem Umfang bereits als Medium für Vorab-Analysen aufgefasst werden.

Intern haben die Banken bereits umfangreiche Erfahrungen durch bereits abgeschlossene oder aktuell laufende Projekte gesammelt, wie Projektdokumentationen oder Lessons Learned. Banken verfügen zusätzlich über umfangreiche Dokumentationen der eingesetzten Methoden, Prozesse und Systeme sowie der Zuständigkeiten und organisatorischen Gegebenheiten. Interne Blogs, etc. bündeln darüber hinaus die Expertise der Mitarbeiter. Teil-Analysen sind damit bereits in beträchtlichem Umfang vorhanden.

Vorteile einer automatisierten Untersuchung

Geschwindigkeitssteigerung

Automatische Analysen können per definitionem sehr schnell und standardisiert durchgeführt werden.
Selbst mit herkömmlichen Laptops können binnen Minuten semantische Ähnlichkeiten in Dutzenden komplexer Regularien analysiert werden.
Damit können – etwa im Falle von Konsultationspapieren – Zuständigkeiten und Auswirkungen rechtzeitig erkannt und in die Stellungnahmen einbezogen werden.

Ressourcenschonung

Unsere Lösung ist – je nach Ausprägung – ohne spezielle Hard- und Software-Anforderungen lauffähig.
Der personelle Aufwand für die Nutzung und ggf. Weiterentwicklung ist äußerst gering und von der Anzahl der betrachteten Regularien weitgehend unabhängig.
Engpässe werden reduziert und Experten können sich auf anspruchsvolle Tätigkeiten fokussieren.
Entsprechend lassen sich Projektkosten reduzieren.

Objektivität

Die Ähnlichkeiten zwischen den Regularien auf Gesamt- und Paragraphen-Ebene liegen quantitativ vor und sind jederzeit reproduzierbar.
Unterschiede durch subjektive Präferenzen sind damit praktisch ausgeschlossen.
Analysen lassen sich nachvollziehbar dokumentieren.
Ergebnisse von Vorstudien und Aussagen externer Dienstleister können unvoreingenommen überprüft werden.

Fehlerreduktion

Automatische Analysen stellen eine effiziente Zusatzkontrolle dar.
Nichttriviale – und möglicherweise übersehene – Interdependenzen zwischen Regularien können identifiziert und berücksichtigt werden.
Insbesondere Flüchtigkeitsfehler sowie das Übersehen ggf. wichtiger Passagen lassen sich damit verringern.
Ggf. unbemerkte Gaps und Impacts können darüber hinaus entdeckt werden.

Wissensnutzung mittels Topic Analysis

Methoden und Tools

Die Verfahren des Natural Language Processing (NLP) im hier verwendeten Sinne ermöglichen semantische Analysen von Texten anhand darin vorkommender Themen (Topics) zur Identifizierung von Ähnlichkeiten bei beliebiger Granularität.
Bei der verwendeten Methode Latent Semantic Analysis (LSA bzw. Latent Semantic Indexing, LSI) erfolgt eine Reduktion der betrachteten Begriffe auf eine vorgegebene Anzahl von Themen und hierdurch eine Abbildung von Texten auf einen „semantischen Raum“.
Die Topic-Ermittlung entspricht dabei einem Unsupervised Learning-Prozess anhand vorgegebener Dokumente.
Neue Texte und Text-Komponenten können anschließend auf semantische Ähnlichkeiten hin untersucht werden.
Die Analysen erfordern Programme auf der Basis entsprechender Analysetools, wie z.B. Python oder R.

Analyse

Zunächst werden die Einheiten bestimmt anhand derer die Texte zu untersuchen sind (Sätze, Paragraphen, usw.) .
Mittels eines „Trainings-Textes“ wird eine Abbildung auf eine vorgegebene Anzahl von Topics ermittelt („Modell“).
Die zu untersuchenden Texte werden ebenfalls mittels des Modells abgebildet und anschließend quantitativ auf Ähnlichkeiten hin untersucht.
Wie rechts skizziert, lässt sich das Verfahren automatisieren und effizient auf eine große Anzahl von Texten anwenden.

Identifizierung ähnlicher Paragraphen

Vorgehen bei der Analyse regulatorisch relevanter Texte

Das Vorgehen für die Analyse auf Gesamt- und Paragraphen-Ebene richtet sich nach den jeweiligen bankfachlichen Zielen. Wir unterstützen Sie bei Detailfragen und bei der Erarbeitung spezifischer Lösungen.

Analyse regulatorisch relevanter Texte

Usecases

Im folgenden werden drei mögliche Analysen regulatorischer Texte skizziert, die sich aufgrund der jeweiligen Zielsetzung unterscheiden. Die Analysen sind problemlos auf interne Texte erweiterbar.

Usecase 1: Identifizierung von Ähnlichkeiten

Bei der Analyse wurden die Regularie Basel II sowie die oft als „Basel IV“ bezeichnete Regularie Basel III: Finalising post-crisis reforms betrachtet.
Bereits der allgemeine Vergleich weist auf eine starke Kosinus-Ähnlichkeit zwischen diesen beiden Texten hin (s. Radar-Diagramm).
Der Matrix-Vergleich über alle Paragraphen liefert eine Übereinstimmung über weite Teile (helle Diagonale, s. Matrix-Diagramm).
Ein Abgleich auf Paragraphen-Ebene liefert zahlreiche fast identische Abschnitte bzgl. Kreditrisiken (s. Tabelle).

Radar-Diagramm auf Gesamt-Ebene
Ähnlichkeitsmatrix auf Paragraphen-Ebene
Ähnliche Paragraphen

Usecase 2: Ermittlung von Unterschieden

Es erfolgte ein Vergleich der deutschsprachigen MaRisk aus den Jahren 2017 und 2012.
Wie anhand des allgemeinen Vergleichs (Radar-Plot) sowie des Matrix-Vergleichs über alle Paragraphen (helle Diagonale) zu sehen, sind die Texte größtenteils identisch.
Unterbrechungen der Hauptdiagonalen (roter Pfeil) weisen jedoch auch auf einige Neuerungen hin.
Ein Ähnlichkeitsvergleich über alle Regularien liefert dabei den Punkt „AT 4.3.4“ als größte Änderung gegenüber MaRisk 2012.

Radar-Diagramm auf Gesamt-Ebene
Ähnlichkeitsmatrix auf Paragraphen-Ebene
“Neuartige” Paragraphen

Usecase 3: Finden ähnlicher Paragraphen

Es wurden die Regularie Basel III: Finalising post-crisis reforms („Basel IV“) sowie Basel III (BCBS 189) betrachtet.
Trotz Unterschiede ist ein Bereich relativ großer Ähnlichkeit auf Paragraphen-Ebene erkennbar (roter Pfeil, unten).
Zur näheren Analyse dieses Bereichs wurde ein entsprechender Paragraph aus Basel IV ausgewählt und hierzu die ähnlichsten Paragraphen aus Basel III ermittelt.
Wie in der Tabelle unten aufgeführt beziehen sich die entsprechenden Paragraphen aus Basel III und IV auf die CVA.

Ähnlichkeitsmatrix auf Paragraphen-Ebene
Ähnliche Ziel-Paragraphen

 

 

 

 

 

 

Angebotsstufen für einen regulatorischen Einsatz von Machine Learning-Verfahren

RiskDataScience ermöglicht Banken die beschriebenen Verfahren effizient und institutsspezifisch einzusetzen und weiterzuentwickeln. Entsprechend den jeweiligen Anforderungen werden dazu folgende drei Ausbaustufen vorgeschlagen.

Stufe 1: Methodik

  • Einweisung in Methodik zum Latent Semantic Indexing regulatorischer Texte
  • Übergabe und Installation der vorhandenen Python-Lösung zum automatisierten Einlesen und Zerlegen von Dokumenten sowie zur semantischen Analyse per LSI
  • Übergabe und Dokumentation der Visualisierungs- und Auswertetechniken

Bank ist in der Lage Methodik zur Analyse regulatorischer Anforderungen eigenständig zu ver-wenden und weiterzuentwickeln

Stufe 2: Customizing

  • Stufe 1 und zusätzlich
  • Anpassung von Analyse-Einheiten (Dokument-Gruppen) gemäß Analysezielen der jeweiligen Bank
  • Analyse der konkreten Regularien, Projekte, Methoden, Prozesse und Systeme zur Identifizierung optimaler Einsatzmöglichkeiten
  • Entwicklung von Prozessen zur Erreichung der Analyseziele
  • Kommunikation und Dokumentation der Ergebnisse an alle Stakeholder

Bank verfügt über gecustomizte Verfahren und Prozesse zur Analyse regulatorischer Anforderungen, etwa bzgl. Zuständigkeiten oder Methoden

Stufe 3: IT-Lösung

  • Stufe 1, Stufe 2 und zusätzlich
  • Spezifikation aller Anforderungen für eine automatisierte, ggf. web-basierte IT-Lösung
  • Vorschlag und Kontaktierung möglicher Anbieter
  • Unterstützung bei der Anbieter- und Tool-Auswahl
  • Unterstützung bei der Planung der Umsetzung
  • Fachliche und koordinative Begleitung des Umsetzungsprojekts
  • Fachlicher Support nach Implementierung der IT-Lösung

Bank verfügt über automatisierte IT-Lösung zum effizienten semantischen Abgleich regulatorisch relevanter Textkomponenten.

Je nach Kundenwunsch ist eine flexible Ausgestaltung möglich. Gerne erläutern wir unseren Ansatz auch im Rahmen eines Vorab-Workshops.

Zudem bieten wir mit Regulytics® eine Web-Applikation zur automatisierten Analyse von Regularien auf Gesamt- und Paragraphen-Ebene.

Kontakt

Dr. Dimitrios Geromichalos
Founder / CEO
RiskDataScience UG (haftungsbeschränkt)
Theresienhöhe 28, 80339 München
E-Mail: riskdatascience@web.de
Telefon: +4989244407277, Fax: +4989244407001
Twitter: @riskdatascience