Ein automatisierter Abgleich der Polizeigesetze verschiedener Bundesländer

Zielsetzung

Das Polizeirecht wird in Deutschland je nach Bundesland unterschiedlich geregelt. Dennoch sind aufgrund des analogen Aufgabenspektrums große Ähnlichkeiten zu erwarten.

Ziel der vorliegenden Analyse war es – unter Nutzung der Möglichkeiten der Digitalisierung – mittels der Verfahren des Machine Learning und des Natural Language Processing (NLP) semantische Ähnlichkeiten und Unterschiede zwischen den verschiedenen Gesetzen (Stand 11.05.2018) zu identifizieren.
Ausgangspunkt hierfür war das bayerische Polizeiaufgabengesetz (BayPAG), das mit entsprechenden Gesetzen der übrigen Bundesländer automatisiert abgeglichen wurde.
Neben allgemeinen Ähnlichkeiten zu den übrigen Gesetzen erfolgte darüber hinaus ein Paragraphen-spezifischer Abgleich mit den Polizeigesetzen von Thüringen (PAG), Baden-Württemberg (PolG) und Hamburg (SOG).

Methoden und Tools

Die Verfahren des NLP im hier verwendeten Sinne ermöglichen semantische Analysen von Texten anhand darin vorkommender Themen (Topics) zur Identifizierung von Ähnlichkeiten bei beliebiger Granularität.
Bei der verwendeten Methode Latent Semantic Analysis erfolgt eine Reduktion der betrachteten Begriffe auf eine vorgegebene Anzahl von Themen und hierdurch eine Abbildung von Texten auf einen „semantischen Raum“.
Neue Texte und Text-Komponenten können anschließend auf semantische Ähnlichkeiten hin untersucht werden.
Die Analysen erfordern Programme auf der Basis entsprechender Analysetools, wie z.B. Python oder R.

Analyse

Zunächst werden die Einheiten bestimmt anhand derer die Texte zu untersuchen sind (Sätze, Paragraphen, usw.) .
Mittels eines „Trainings-Textes“ wird eine Abbildung auf eine vorgegebene Anzahl von Topics ermittelt („Modell“).
Die zu untersuchenden Texte werden ebenfalls mittels des Modells abgebildet und anschließend quantitativ auf Ähnlichkeiten hin untersucht.
Das Verfahren lässt sich automatisieren und auf eine große Anzahl von Texten anwenden.

Vorteile einer automatisierten Untersuchung

Automatische Analysen können per definitionem sehr schnell und standardisiert durchgeführt werden.
Selbst mit herkömmlichen Laptops können binnen Minuten semantische Ähnlichkeiten in Dutzenden komplexer Gesetze analysiert werden.

Der personelle Aufwand für die Nutzung und ggf. Weiterentwicklung ist äußerst gering und von der Anzahl der betrachteten Gesetze weitgehend unabhängig.

Die Ähnlichkeiten zwischen den Gesetzen auf Gesamt- und Paragraphen-Ebene liegen quantitativ vor und sind jederzeit reproduzierbar.
Unterschiede durch subjektive Präferenzen sind damit praktisch ausgeschlossen.
Analysen lassen sich nachvollziehbar dokumentieren.

Ergebnisse der Analyse

Die Analyse auf Gesamt-Ebene ergibt unterschiedlich große Ähnlichkeiten des bayerischen Polizeigesetzes zu dem anderer Bundesländer (s. Radar-Plot unten).
Die größte Ähnlichkeit besteht hierbei zum Polizeigesetz Thüringen, während sich das entsprechende Gesetz Hamburgs am stärksten von dem Bayerns unterscheidet.

Ähnlichkeit des bayerischen Polizeigesetzes zu dem anderer Bundesländer

Ein Abgleich auf Paragraphen-Ebene zwischen den Gesetzen Bayerns und Thüringens demonstriert die große Ähnlichkeit auf eindrucksvolle Art.
Die helle Diagonale der Ähnlichkeitsmatrix (Spalten: Polizeigesetz Bayern; Zeilen: Polizeigesetz Thüringen) weist auf starke Ähnlichkeiten für den größten Teil der Gesetze sowie auf eine fast identische Gesamtstruktur hin.
So sind BayPAG, Art. 66 (Allgemeine Vorschriften für den Schußwaffengebrauch) und § 64, PAG (Allgemeine Bestimmungen für den Schußwaffengebrauch) fast identisch.
Eine relative Ausnahme stellt hingegen BayPAG, Art. 73 (Rechtsweg) dar, zu dem es im POG keinen unmittelbar semantisch auffindbaren Paragraphen gibt.
Download: Liste ähnlicher Paragraphen BayPAG – POG

Ähnlichkeitsmatrix der Polizeigesetze Bayerns und Thüringens

Stärkere Unterschiede weist, wie erwartet, die Ähnlichkeitsmatrix zwischen dem BayPAG und dem baden-württembergischen PolG auf. Hier ist die Hauptdiagonale zwar noch erkennbar, aber unterbrochen und teils versetzt, was auf einen unterschiedlichen Gesamt-Aufbau schließen lässt.
Als ähnlichste Pragraphen hier wurden BayPAG, Art. 41 (Datenübermittlung an Personen oder Stellen außerhalb des öffentlichen Bereichs) sowie PolG, § 44 (Datenübermittlung an Personen oder Stellen außerhalb des öffentlichen Bereichs) identifiziert.
Kein Gegenstück wurde u.a. für BayPAG Art. 57 (Ersatzzwangshaft) ermittelt.
Download: Liste ähnlicher Paragraphen BayPAG – PolG

Ähnlichkeitsmatrix der Polizeigesetze Bayerns und Baden-Württembergs

Die großen Unterschiede zwischen dem BayPAG und dem hier untersuchten Polizeigesetz Hamburgs (SOG) sind auch in der Ähnlichkeitsmatrix gut erkennbar. Die Hauptdiagonale ist nur bruchstückhaft erhalten, mit großen Bereichen ohne nennenswerte Übereinstimmung.
Ähnliche Paragraphen hier sind insb. BayPAG, Art. 24 (Verfahren bei der Durchsuchung von Wohnungen) sowie SOG, § 16 a (Verfahren beim Durchsuchen von Wohnungen) und BayPAG, Art. 64 (Androhung unmittelbaren Zwangs) sowie SOG, § 22 (Androhung unmittelbaren Zwanges).
Download: Liste ähnlicher Paragraphen BayPAG – SOG

Ähnlichkeitsmatrix der Polizeigesetze Bayerns und Hamburgs

Abschließend lässt sich festhalten, dass mit den uns verfügbaren Verfahren des Machine Learning und des NLP auf einfache Weise Ähnlichkeiten zwischen den länderspezifischen Polizeigesetzen auf Gesamt- wie auf Paragraphen-Ebene identifiziert werden konnten.
Die Gesamtstruktur ausgewählter Gesetze konnte grafisch gegenübergestellt werden, ähnliche Paragraphen konnten ebenso effizient ermittelt werden wie Unterschiede.

Weitere, auf diesem Verfahren aufbauende Analysen sind problemlos möglich.

Wir unterstützen unsere Kunden bei diesbezüglichen Fragestellungen. Gerne erläutern wir unseren Ansatz auch im Rahmen eines Vorab-Workshops.

Zudem bieten wir mit Regulytics® eine Web-Applikation zur automatisierten Analyse von Regularien auf Gesamt- und Paragraphen-Ebene.

Kontakt

Dr. Dimitrios Geromichalos
Founder / CEO
RiskDataScience UG (haftungsbeschränkt)
Theresienhöhe 28, 80339 München
E-Mail: riskdatascience@web.de
Telefon: +4989244407277, Fax: +4989244407001
Twitter: @riskdatascience

Regulytics® ist eine eingetragene Marke beim Deutschen Patent- und Markenamt.

Automated Semantic Analysis of Regulatory Texts

Overview

The extent and complexity of regulatory requirements pose significant challenges to banks already at their analysis. In addition, banks must – often ad-hoc – process inquiries of regulators and comment on consultation papers.
On the other hand, procedures from the areas NLP and Machine Learning enable the effective and efficient usage of available knowledge resources.

Our application Regulytics® enables the automated analysis of regulatory and internal texts in terms of content.
The app does not provide cumbersome general reports, but concise, tailored and immediate information about content-related similarities.
Thereby, regulatorily relevant texts can be classified into the overall context. Similar paragraphs in regulations and internal documents can be determined as well as differences in different document versions.
Financial service providers can request a free trial account for the online version of Regulytics.

Regulatory Challenges

Regulations like IFRS 9, BCBS 239, FTRB or IRRBB require fundamental changes of the banks’ methods, processes and/or systems.
Many regulations have far-reaching impacts on the risks, the equity capital and thereby the business model of the affected banks.
Also, the large amount of the final and consultative regulations renders a monitoring of the requirements and the effects difficult.

Regulations can generally affect different, interconnected areas of banks, like risk, treasury, finance oder IT.
In addition, there exist also connections between the regulations; gaps to to one requirement generally correspond to additional gaps to further requirements.
The diverse legislation in different jurisdictions increases the complexity once again.

Inside banks, several impact analyses and prestudies are conducted in order to classify the relevance of regulations.
Several consulting firms conduct prestudies as well as the actual implementation projects which are often characterized by large durations and high resource requirements .
Projects bind considerable internal resources and exacerbate bottle necks.
External support is expensive and increases the coordination efforts, especially in the case of several suppliers.
Errors in prestudies and project starting phases can be hardly corrected.
Due to the high complexity, there exists the risk that impacts and interdependencies are not recognized in time.

Available Knowledge Ressources

Original texts of the regulations and the consultation papers are normally freely available in the Internet and are – in the case of EU directives – present in several languages.
Regulators and committees provide further information, e.g. in form of circular letters and consultation papers.
Several institutes, portals, and consulting firms supply banks with partially free articles, white papers and news letters.

In addition, banks have collected extensive experiences due to already finalized or ongoing projects (project documentations, lessons learned).
Banks also have available documentations of the used methods, processes, and systems as well as the responsibilities and organizational circumstances.
Internal blogs, etc. focus the expertise of the employees.

Advantages of an Automated Analysis

Speed Increase

Automated analyses can be done per definition in a very fast and standardized way.
Even with usual laptops, semantic similarities of dozens regulations can be analyzed within minutes.
Thereby, responsibilities and impacts can be recognized – e.g. in the case of consultation papers – in time and included into statements.

Resource Conservation

Our solution runs without expensive hardware and software requirements.
The human effort for usage and eventual enhancements is extremely low and practically independent from the number of the considered regulations.
Bottlenecks are reduced and experts can focus on the demanding tasks.
Thus, project costs can be minimized.

Objectivity

The similarities between regulations on total and paragraph level are quantitatively available and at any time reproducible.
Discrepancies caused by subjective preferences can be practically ruled out.
Analyses can be documented in a comprehensible way.
Prestudy results and statements of external suppliers can be checked without bias.

Error Reduction

Automated analyses pose an efficient additional control.
Non-trivial – and potentially ignored – interdependencies between regulations can be identified and considered.
Especially clerical errors and the overlooking of potentially important paragraphs can be minimized.
Also, potentially ignored gaps and impacts can be detected.

Knowledge Usage via Topic Analysis

Methods and Tools

The methods of Natural Language Processing (NLP) enable a semantic analysis of texts on the basis of the topics contained therein for an identification of similarities at any required granularity.
In the here used method “Latent Semantic Analysis” (LSA or “Latent Sementic Indexing”, LSI), the considered terms are mapped onto a given number of topics; accordingly, texts are mapped onto a “semantic space”.
The topic determination is equivalent to an unsupervised learning process on the basis of the available documents.
New texts and text components can then be analyzed in terms of semantic similarities.
The analyzes require programs on the basis of appropriate languages, like e.g. Python or R.

Analysis

At first, the levels are determined by which the texts are to be analyzed (sentences, paragraphs, etc.).
Via a training text, a mapping onto a given number of topics is determined (”model”).
The texts to be analyzed are also mapped with the model and then quantitatively analyzed in terms of similarities.
As shown in the right sketch, the process can be automated and efficiently applied on a large number of texts.

Identification of similar paragraphs

Approach for an Analysis of Regulation-Related Texts

The approach for the analysis at total and paragraph level is determined by the bank’s goals.  We support you in detail questions and in the development of specific solutions.

Analysis of regulation-related texts

Usecases

In the following, three possible analyses of regulation texts are drafted which differ in their objective. The analyses can be easily conducted also with internal texts.

Use Case 1: Identification of Similarities

In the analysis, the regulation Basel II and the regulation Basel III: Finalising post-crisis reforms (often called “Basel IV”) were considered.
The general comparison already indicates a strong cosine similarity between the two texts (s. radar plot).
The matrix comparison over all paragraphs yields high similarities over wide areas (bright diagonal, s. matrix plot).
The analysis at paragraph level yields numerous nearly identical sections concerning credit risks (s. table).

Radar plot at total level
Similarity plot at paragraph level
Similar paragraphs

Use Case 2: Determination of Differences

A comparison between the German regulations MaRisk of the years 2017 and 2012 was conducted.
As already seen at the general level (s. radar plot) and in the matrix plot over all paragraphs (bright diagonal), the texts are nearly identical.
However, disruptions in the main diagonal (red arrow, matrix plot), indicate some changes.
A respective analysis over all paragraphs yields the section „AT 4.3.4“ (stemming from BCBS 239) as biggest novelty.

Radar diagram at total level
Similarity matrix at paragraph level
“Novel” paragraphs

Use Case 3: Finding Similar Paragraphs

The regulations Basel III: Finalising post-crisis reforms (“Basel IV”) and Basel III (BCBS 189) were considered.
Despite differences, an area of relatively high similarities can be recognized at paragraph level (red arrow, matrix plot).
For an analysis of this area, a respective paragraph from “Basel IV” was selected and the most similar paragraphs from Basel III to this paragraph were determined.
As shown in the table, the respective paragraphs from the texts refer to the Credit Value Adjustments (CVA).

Similarity matrix at paragraph level
Similar target paragraphs

Our Offer – On-Site Implementation

RiskDataScience enables banks to use and enhance the described procedures in an efficient and institute-specific way. According to the requirements, we propose the following three configuration levels.

Level 1: Methodology

  • Introduction into the Latent Semantic Indexing methodology with a focus on regulatory texts
  • Handover and installation of the existing Python solution for the automated loading and splitting of documents as well as the semantic analysis via LSI
  • Handover and documentation of the visualization and analysis methods

Bank has available enhanceable processes for the analysis of regulatory requirements.

Level 2: Customization

  • Step 1 and additional
  • Adaptations of analysis entities (e.g. document groups) according to the analysis goals of the bank
  • Analysis of the concrete regulations, projects, methods, processes, and systems for an identification of the optimal use possibilities
  • Development of processes for the achievement of the document goals
  • Documentation and communication of the results to all stakeholders

Bank has available customized processes for the analysis of regulatory requirements, e.g. in terms of responsibilities or methods.

Step 3: IT Solution

  • Step 1, Step 2 and additional
  • Specification of all requirements for a comprehensive IT solution
  • Proposal and contact of possible suppliers
  • Support in the supplier and tool selection
  • Support in the planning and implementation
  • Methodological and coordinative support during the implementation
  • Contact for methodological questions after the implementation

Bank has available an automated IT solution for an efficient semantic comparison of regulatorily relevant text components.

According to the customers’ requirements, a flexible arrangement is possible.

In addition, with our web app Regulytics® we offer a solution for an automated analysis of regulatory texts on total and paragraph level.

Contact

Dr. Dimitrios Geromichalos
Founder / CEO
RiskDataScience UG (haftungsbeschränkt)
Theresienhöhe 28, 80339 München
E-Mail: riskdatascience@web.de
Telefon: +4989244407277, Fax: +4989244407001
Twitter: @riskdatascience

Automatisierte semantische Analyse regulatorischer Texte

Überblick

Umfang und Komplexität regulatorischer Anforderungen stellen Banken bereits bei deren Analyse vor erhebliche Herausforderungen. Zudem müssen Banken – oft ad-hoc – Anfragen von Regulatoren bearbeiten und sich zeitnah zu Konsultationspapieren äußern.

Verfahren aus den Bereichen NLP und Machine Learning ermöglichen die effektive und effiziente Nutzung vorhandener Wissensressourcen.

Unsere Applikation Regulytics® ermöglicht die automatisierte Analyse regulatorischer sowie interner Texte nach inhaltlichen Gesichtspunkten.
Die App liefert keine umständliche allgemeine Berichte, sondern prägnante, ​​maßgeschneiderte und sofortige Informationen zu inhaltlichen Ähnlichkeiten.
Damit können regulatorisch relevante Texte objektiv in den Gesamtkontext eingeordnet werden. Ähnliche Paragraphen in Regularien und internen Dokumenten können ebenso ermittelt werden wie Unterschiede in verschiedenen Dokument-Versionen.
Finanzdienstleister können einen kostenlosen Test-Account für die Online-Version von Regulytics beantragen.
Zusätzlich bieten wir eine freie Regulytics-Demo-Version zur Analyse der Bauordnungen der verschiedenen deutschen Bundesländer: Link

Regulatorische Herausforderungen

Regularien wie IFRS 9, BCBS 239, FTRB, IRRBB oder die MaRisk-Novelle 2017 erfordern grundlegende Änderungen in Methoden, Prozessen und/oder Systemen der Banken.
Viele Regularien haben weitreichende Auswirkungen auf die Risiken, das Eigenkapital und damit das Geschäftsmodell der betroffenen Banken.
Die große Anzahl der finalen bzw. in Konsultation befindlichen Regularien gestaltet ein Monitoring der Anforderungen und Auswirkungen schwierig.

Die Regularien können verschiedene, miteinander zusammenhängende, Bereiche der Banken, wie Risk, Handel, Finance oder die IT betreffen.
Zudem existieren auch Zusammenhänge zwischen den Regularien; Gaps zu einer Anforderung entsprechen i.d.R. auch Gaps zu weiteren Anforderungen.
Die i.A. unterschiedliche Gesetzgebung in den verschiedenen Jurisdiktionen erhöht die Komplexität nochmals beträchtlich.

Innerhalb der Banken finden Auswirkungsanalysen und Vorstudien statt, um die Relevanz der Projekte einzustufen.
Zahlreiche Beratungsunternehmen führen Vorstudien sowie die eigentlichen Umsetzungsprojekte durch, die sich oft durch lange Laufzeiten und einen hohen Ressourcenbedarf auszeichnen.
Projekte binden interne Ressourcen und verschärfen Personalengpässe.
Externe Unterstützung ist kostspielig und erhöht den Koordinationsaufwand, insb. bei mehreren Dienstleistern.
Fehler in Vorstudien und Projekt-Anfangsphasen lassen sich nur schwer korrigieren.
Aufgrund der hohen Komplexität besteht Risiko, dass Auswirkungen und Interdependenzen nicht rechtzeitig erkannt werden.

Wissensressourcen zur Aufgabenbewältigung

Als externe Ressourcen stehen den Banken zunächst Originaltexte der Regularien sowie der Konsultationen zur Verfügung, die für gewöhnlich frei erhältlich sind. Zahlreiche einschlägige Online-Portale veröffentlichen regelmäßig Artikel über Inhalt und Auswirkungen der regulatorischen Anforderungen. Verschiedene Beratungsunternehmen, insbesondere die Big 4, stellen den Banken außerdem freie Artikel, Whitepapers und Newsletters zur Verfügung. Somit kann dann Internet in gewissem Umfang bereits als Medium für Vorab-Analysen aufgefasst werden.

Intern haben die Banken bereits umfangreiche Erfahrungen durch bereits abgeschlossene oder aktuell laufende Projekte gesammelt, wie Projektdokumentationen oder Lessons Learned. Banken verfügen zusätzlich über umfangreiche Dokumentationen der eingesetzten Methoden, Prozesse und Systeme sowie der Zuständigkeiten und organisatorischen Gegebenheiten. Interne Blogs, etc. bündeln darüber hinaus die Expertise der Mitarbeiter. Teil-Analysen sind damit bereits in beträchtlichem Umfang vorhanden.

Vorteile einer automatisierten Untersuchung

Geschwindigkeitssteigerung

Automatische Analysen können per definitionem sehr schnell und standardisiert durchgeführt werden.
Selbst mit herkömmlichen Laptops können binnen Minuten semantische Ähnlichkeiten in Dutzenden komplexer Regularien analysiert werden.
Damit können – etwa im Falle von Konsultationspapieren – Zuständigkeiten und Auswirkungen rechtzeitig erkannt und in die Stellungnahmen einbezogen werden.

Ressourcenschonung

Unsere Lösung ist – je nach Ausprägung – ohne spezielle Hard- und Software-Anforderungen lauffähig.
Der personelle Aufwand für die Nutzung und ggf. Weiterentwicklung ist äußerst gering und von der Anzahl der betrachteten Regularien weitgehend unabhängig.
Engpässe werden reduziert und Experten können sich auf anspruchsvolle Tätigkeiten fokussieren.
Entsprechend lassen sich Projektkosten reduzieren.

Objektivität

Die Ähnlichkeiten zwischen den Regularien auf Gesamt- und Paragraphen-Ebene liegen quantitativ vor und sind jederzeit reproduzierbar.
Unterschiede durch subjektive Präferenzen sind damit praktisch ausgeschlossen.
Analysen lassen sich nachvollziehbar dokumentieren.
Ergebnisse von Vorstudien und Aussagen externer Dienstleister können unvoreingenommen überprüft werden.

Fehlerreduktion

Automatische Analysen stellen eine effiziente Zusatzkontrolle dar.
Nichttriviale – und möglicherweise übersehene – Interdependenzen zwischen Regularien können identifiziert und berücksichtigt werden.
Insbesondere Flüchtigkeitsfehler sowie das Übersehen ggf. wichtiger Passagen lassen sich damit verringern.
Ggf. unbemerkte Gaps und Impacts können darüber hinaus entdeckt werden.

Wissensnutzung mittels Topic Analysis

Methoden und Tools

Die Verfahren des Natural Language Processing (NLP) im hier verwendeten Sinne ermöglichen semantische Analysen von Texten anhand darin vorkommender Themen (Topics) zur Identifizierung von Ähnlichkeiten bei beliebiger Granularität.
Bei der verwendeten Methode Latent Semantic Analysis (LSA bzw. Latent Semantic Indexing, LSI) erfolgt eine Reduktion der betrachteten Begriffe auf eine vorgegebene Anzahl von Themen und hierdurch eine Abbildung von Texten auf einen „semantischen Raum“.
Die Topic-Ermittlung entspricht dabei einem Unsupervised Learning-Prozess anhand vorgegebener Dokumente.
Neue Texte und Text-Komponenten können anschließend auf semantische Ähnlichkeiten hin untersucht werden.
Die Analysen erfordern Programme auf der Basis entsprechender Analysetools, wie z.B. Python oder R.

Analyse

Zunächst werden die Einheiten bestimmt anhand derer die Texte zu untersuchen sind (Sätze, Paragraphen, usw.) .
Mittels eines „Trainings-Textes“ wird eine Abbildung auf eine vorgegebene Anzahl von Topics ermittelt („Modell“).
Die zu untersuchenden Texte werden ebenfalls mittels des Modells abgebildet und anschließend quantitativ auf Ähnlichkeiten hin untersucht.
Wie rechts skizziert, lässt sich das Verfahren automatisieren und effizient auf eine große Anzahl von Texten anwenden.

Identifizierung ähnlicher Paragraphen

Vorgehen bei der Analyse regulatorisch relevanter Texte

Das Vorgehen für die Analyse auf Gesamt- und Paragraphen-Ebene richtet sich nach den jeweiligen bankfachlichen Zielen. Wir unterstützen Sie bei Detailfragen und bei der Erarbeitung spezifischer Lösungen.

Analyse regulatorisch relevanter Texte

Usecases

Im folgenden werden drei mögliche Analysen regulatorischer Texte skizziert, die sich aufgrund der jeweiligen Zielsetzung unterscheiden. Die Analysen sind problemlos auf interne Texte erweiterbar.

Usecase 1: Identifizierung von Ähnlichkeiten

Bei der Analyse wurden die Regularie Basel II sowie die oft als „Basel IV“ bezeichnete Regularie Basel III: Finalising post-crisis reforms betrachtet.
Bereits der allgemeine Vergleich weist auf eine starke Kosinus-Ähnlichkeit zwischen diesen beiden Texten hin (s. Radar-Diagramm).
Der Matrix-Vergleich über alle Paragraphen liefert eine Übereinstimmung über weite Teile (helle Diagonale, s. Matrix-Diagramm).
Ein Abgleich auf Paragraphen-Ebene liefert zahlreiche fast identische Abschnitte bzgl. Kreditrisiken (s. Tabelle).

Radar-Diagramm auf Gesamt-Ebene
Ähnlichkeitsmatrix auf Paragraphen-Ebene
Ähnliche Paragraphen

Usecase 2: Ermittlung von Unterschieden

Es erfolgte ein Vergleich der deutschsprachigen MaRisk aus den Jahren 2017 und 2012.
Wie anhand des allgemeinen Vergleichs (Radar-Plot) sowie des Matrix-Vergleichs über alle Paragraphen (helle Diagonale) zu sehen, sind die Texte größtenteils identisch.
Unterbrechungen der Hauptdiagonalen (roter Pfeil) weisen jedoch auch auf einige Neuerungen hin.
Ein Ähnlichkeitsvergleich über alle Regularien liefert dabei den Punkt „AT 4.3.4“ als größte Änderung gegenüber MaRisk 2012.

Radar-Diagramm auf Gesamt-Ebene
Ähnlichkeitsmatrix auf Paragraphen-Ebene
“Neuartige” Paragraphen

Usecase 3: Finden ähnlicher Paragraphen

Es wurden die Regularie Basel III: Finalising post-crisis reforms („Basel IV“) sowie Basel III (BCBS 189) betrachtet.
Trotz Unterschiede ist ein Bereich relativ großer Ähnlichkeit auf Paragraphen-Ebene erkennbar (roter Pfeil, unten).
Zur näheren Analyse dieses Bereichs wurde ein entsprechender Paragraph aus Basel IV ausgewählt und hierzu die ähnlichsten Paragraphen aus Basel III ermittelt.
Wie in der Tabelle unten aufgeführt beziehen sich die entsprechenden Paragraphen aus Basel III und IV auf die CVA.

Ähnlichkeitsmatrix auf Paragraphen-Ebene
Ähnliche Ziel-Paragraphen

 

 

 

 

 

 

Angebotsstufen für einen regulatorischen Einsatz von Machine Learning-Verfahren

RiskDataScience ermöglicht Banken die beschriebenen Verfahren effizient und institutsspezifisch einzusetzen und weiterzuentwickeln. Entsprechend den jeweiligen Anforderungen werden dazu folgende drei Ausbaustufen vorgeschlagen.

Stufe 1: Methodik

  • Einweisung in Methodik zum Latent Semantic Indexing regulatorischer Texte
  • Übergabe und Installation der vorhandenen Python-Lösung zum automatisierten Einlesen und Zerlegen von Dokumenten sowie zur semantischen Analyse per LSI
  • Übergabe und Dokumentation der Visualisierungs- und Auswertetechniken

Bank ist in der Lage Methodik zur Analyse regulatorischer Anforderungen eigenständig zu ver-wenden und weiterzuentwickeln

Stufe 2: Customizing

  • Stufe 1 und zusätzlich
  • Anpassung von Analyse-Einheiten (Dokument-Gruppen) gemäß Analysezielen der jeweiligen Bank
  • Analyse der konkreten Regularien, Projekte, Methoden, Prozesse und Systeme zur Identifizierung optimaler Einsatzmöglichkeiten
  • Entwicklung von Prozessen zur Erreichung der Analyseziele
  • Kommunikation und Dokumentation der Ergebnisse an alle Stakeholder

Bank verfügt über gecustomizte Verfahren und Prozesse zur Analyse regulatorischer Anforderungen, etwa bzgl. Zuständigkeiten oder Methoden

Stufe 3: IT-Lösung

  • Stufe 1, Stufe 2 und zusätzlich
  • Spezifikation aller Anforderungen für eine automatisierte, ggf. web-basierte IT-Lösung
  • Vorschlag und Kontaktierung möglicher Anbieter
  • Unterstützung bei der Anbieter- und Tool-Auswahl
  • Unterstützung bei der Planung der Umsetzung
  • Fachliche und koordinative Begleitung des Umsetzungsprojekts
  • Fachlicher Support nach Implementierung der IT-Lösung

Bank verfügt über automatisierte IT-Lösung zum effizienten semantischen Abgleich regulatorisch relevanter Textkomponenten.

Je nach Kundenwunsch ist eine flexible Ausgestaltung möglich. Gerne erläutern wir unseren Ansatz auch im Rahmen eines Vorab-Workshops.

Zudem bieten wir mit Regulytics® eine Web-Applikation zur automatisierten Analyse von Regularien auf Gesamt- und Paragraphen-Ebene.

Kontakt

Dr. Dimitrios Geromichalos
Founder / CEO
RiskDataScience UG (haftungsbeschränkt)
Theresienhöhe 28, 80339 München
E-Mail: riskdatascience@web.de
Telefon: +4989244407277, Fax: +4989244407001
Twitter: @riskdatascience

An NLP-Based Analysis of the Banking Regulation “RTS on Procedures for Excluding Third Country NFCS from CVA Risk Charge” in 15 Minutes

Regulations pose hardly manageable challenges for banks as more and more voluminous requirements are added to an already extremly complex environment.
Often, the regulations require significant changes in the banks’ methods, processes and/or systems and can have an additional impact on the capital requirements and hence the business model of the banks.
Projects dealing with regulatory issues cost the banks in total several billions of Euros and bind immense expert resources. Furthermore, the timelines for fulfilling the requirements are very tight and require fast decisions.
On the other hand, banks already have enormous knowledge resources for dealing with the challenges: External and internal texts, like the regulatory texts themselves or project documentations and audit findings, contain abundant information about a wide range of issues.
Hence, an efficient analysis of the information can provide substantial enhancements of the banks’ capabilities to deal with regulatory issues. RiskDataScience has already developed respective concepts and tools and is further enhancing them together with partner companies.

The article at hand deals with the exemplary machine learning / natural language processing-based analysis of a new regulatory text with our specially developed tools. The emphasis of the analysis presented lies on speed, since the self-imposed target is to obtain all the results “in 15 minutes” once everything is properly set up.
The analyzed regulation is the “RTS on Procedures for Excluding Third Country NFCS from CVA Risk Charge“. Mainly, it’s about excluding transactions with non-financial counterparties established in a third country from the own funds requirement for credit valuation adjustment risk.

Our 15-minutes analysis starts with the superb Python “summarize” tool which provides short summarizations of texts. In this case the summarization is

EBA final draft Regulatory Technical Standards on the procedures for excluding transactions with non-financial counterparties established in a third country from the own funds requirement for credit valuation adjustment risk under Article 382(5) of Regulation (EU) No 575/2013 (Capital Requirements Regulation Œ CRR) RTS ON PROCEDURES FOR EXCLUDING THIRD COUNTRY NFCS FROM CVA RISK CHARGE 9 EUROPEAN COMMISSION Brussels, XXX [–](2015) XXX draft COMMISSION DELEGATED REGULATION (EU) No –/..

Hmm, sounds familiar. The algorithm apparently has extracted the basic information of the text.

The next step is a cosine similarity comparison with other regulatory texts via the semantic analysis method LSI (Latent Semantic Indexing). The regulatory texts at hand were Basel 2, Basel 3, CRD IV, CRR, and EMIR.
As one should expect, the similarities to CRR and CRD IV should be very high, there should be some similarities to EMIR, few to Basel 3 (due to the CVA context) and nearly none to Basel 2.
These are the results:

  • CRD IV: 0.964
  • CRR: 0.891
  • EMIR: 0.667
  • Basel 3: 0.327
  • Basel 2: 0.082

Again, as expected.

Now, the speed advantage of automatic analyses comes into play, as the last analysis deals with a sentence-by-sentence comparison. For this, our program splits the RTS text and finds out each CRR sentence with the highest similarity. The – at the first glance plausible – results can be downloaded here as tab-separated csv:

highest_similarity

This concludes our analysis – since the timeline is just below 15 minutes.

 

The method can be enhanced to capture more complex cases and issues, like the identification of the legal basis of inquiries or the examination of “regulatory gap networks”.

We are developing respective methods and tools and support our customers in obtaining an overall perspective of the regulatory data in use.

Contact

Dr. Dimitrios Geromichalos
Founder / CEO
RiskDataScience UG (haftungsbeschränkt)
Theresienhöhe 28, 80339 München
E-Mail: riskdatascience@web.de
Telefon: +4989244407277, Fax: +4989244407001
Twitter: @riskdatascience