Data Science-basierte Identifizierung zusammenhängender operationeller Schadensereignisse

Übersicht Problemstellung und Angebot

Operationelle Risiken stellen sowohl für Finanzdienstleister als auch für Industrieunternehmen eine ebenso große wie schwer zu analysierende Bedrohung dar.
Zusammenhänge zwischen verschiedenen OpRisk-Ereignissen können hierbei trotz komplexer Modelle in der Praxis kaum identifiziert werden und tieferliegende Ursachen bleiben oft unerkannt.
Andererseits haben sich Data Science-Verfahren für ähnliche Fragestellungen bereits etabliert und ermöglichen die Untersuchung großer Mengen unterschiedlicher Daten nach Zusammenhängen, etwa im Bereich der Analyse des Kaufverhaltens von Kunden im Onlinehandel.

RiskDataScience hat entsprechende Verfahren auf die Gegebenheiten operationeller Risiken angepasst und verfügt über bereits entwickelte Algorithmen zur Identifizierung von Interdependenzen zwischen operationellen Schäden.
Unternehmen können damit Kausalbeziehungen zwischen Schäden ausfindig machen, wodurch die Suche nach gemeinsamen Ursachen erleichtert wird. Das gesamte angesammelte Wissen kann effizient genutzt werden, um künftige Schäden möglichst zu vermeiden bzw. frühzeitig zu antizipieren.

Operationelle Risiken

Arten

Operationelle Risiken lassen sich je nach Ursache den folgenden Kategorien zuteilen

  • Menschen: z.B. Betrug, mangelnde Kenntnisse, Mitarbeiter-Fluktuation
  • Prozesse: z.B. Transaktionsfehler, Projektrisiken, Reportingfehler, Bewertungsfehler
  • Systeme: z.B. Programmierfehler, Abstürze
  • Externe Ereignisse: z.B. Klagen, Diebstahl, Feuer, Überschwemmungen

Management

Für gewöhnlich werden operationelle Risiken nach Schadensausmaß und Wahrscheinlichkeit kategorisiert. Entsprechend kommen als Managementstrategien infrage:

  • Vermeidung: Bei großen, unnötigen Risiken
  • Versicherung: Bei großen, nötigen Risiken
  • Verminderung: Insb. bei kleineren Risiken mit hoher Eintrittswahrscheinlichkeit
  • Inkaufnahme: Bei Risiken, die zum Geschäftsmodell gehören

Methoden und Problematik

Die Handhabung operationeller Risiken ist insbesondere im Finanzdienstleistungssektor streng geregelt. So müssen Banken nach Basel II/III operationelle Risiken mit Eigenkapital unterlegen. Hierfür gibt es vorgeschriebene Rechenschemata wie den auf pauschalen Faktoren basierenden Standardized Approach (SA) und den Advanced Measurement Approach (AMA). Letzterer basiert auf Verteilungsannahmen und wird künftig durch den SA ersetzt.

Methodisch unterscheidet man bei der Behandlung operationeller Risiken u.a. zwischen

  • Fragebögen und Self-Assessment: Es werden eher qualitativ Wahrscheinlichkeiten und Ausmaße ermittelt
  • Aktuariellen Verfahren: Diese basieren auf Verteilungsannahmen anhand vergangener Schäden
  • Key Risk Indicator-Verfahren: Es werden einfach beobachtbare Maße identifiziert, die zur Frühwarnung dienen
  • Kausale Netzwerke: Wirkzusammenhänge werden mittels Bayes-Statistik abgebildet

Zusammenhänge zwischen und Ursachen von operationeller Risiken können entweder überhaupt nicht oder nur auf sehr komplexe und fehleranfällige Weise ermittelt werden.

Erkennung von Zusammenhängen mittels Data Science-Verfahren

Assoziationsanalyse

Für die Analyse der Zusammenhänge mehrerer unterschiedlicher Ereignisse („Items“) bieten sich Methoden aus dem Gebiet der Assoziationsanalyse („Association Analysis“) an.
Diese haben sich bereits seit einigen Jahren etabliert und finden insbesondere im Online-Handel (z.B. Buchvorschläge im Online-Handel), Suchmaschinenvorschlägen oder im Einzelhandel (Produkte in Regalen) Verwendung.
Mittels der Assoziationsanalyse lässt sich das gemeinsame Auftreten unterschiedlicher Ereignissen unmittelbar und ohne Verteilungsannahmen identifizieren.
Die enorme Vielzahl möglicher Schlussfolgerungen lässt sich mittels eigens hierfür entwickelter Maße wie Support, Confidence und Lift effizient und sachgerecht einschränken.
Die Analysen erfordern Programme auf der Basis entsprechender Analysetools, wie z.B. R oder RapidMiner.

Analyse-Vorbereitung

Zunächst müssen die Schadensdaten in ein für die Analyse brauchbares Format gebracht werden.
Je nach Schadensart sind zudem zeitliche Aggregationen (z.B. auf Tages-, Wochenbasis) vorzunehmen.
Zu häufig vorkommende oder bereits erklärte Schadensarten sind – anhand von Experteneinschätzungen – zu entfernen.

Analyse-Durchführung

Vor dem Analysebeginn sind die Kriterien für die Schlussfolgerungsregeln gemäß Support und Confidence festzulegen. Die Festlegung der Kriterien kann (z.B. bei R) durch Grafiken unterstützt werden.
Anschließend müssen die Schlussfolgerungen von Experten plausibilisiert werden.
Die Schritte sind für alle relevanten zeitlichen Aggregationen zu wiederholen.

Anwendungsbeispiel: Analyse einer fiktiven Schadensdatenbank

Als Anwendungsbeispiel wurde eine fiktive Schadensdatenbank einer Bank für ein gesamtes Jahr konstruiert.
Es lagen insgesamt 23 mögliche Schadensarten vor, darunter z.B. eine Grippewelle, verspätete Reports, falsche Bewertungen, und Klagen wegen Falschberatung. Folgende Annahmen lagen dem Testbeispiel zugrunde:

  • Fehlerhafte Transaktionen sind sehr häufig
  • Mängel bei Outsourcer-Hotline werden bei Anfragen wg. PC-Headcrashes deutlich
  • Reporting-Mitarbeiter fahren meist Auto und sind von Schneesturm betroffen
  • Nach Abstürzen des Bewertungs-Systems kommt es zu Falschbewertungen
  • Diebstähle während Arbeiten nach Brand im Besprechungsraum
  • Personalengpässe bei Lieferanten führen zu gescheiterten Projekten
  • Massive Kundenbeschwerden nach Abgang von Kundenbetreuern

Da die fehlerhaften Transaktionen sehr oft und unzusammenhängend auftraten, wurden sie als erstes entfernt:

Häufigkeit der Schäden

Zunächst wurden – zur Ermittlung der relevanten Support- und Confidence-Maße sämtliche ermittelte Regeln grafisch dargestellt.

Auftragung der Schluss-Regeln auf Tagesbasis

Nach Einschränkung der Confidence auf ein Mindestmaß von 0,6 ergibt die u.g. Liste.

Identifizierte Zusammenhänge auf Tagesbasis

Von den gefundenen Koinzidenzen erweisen sich – nach Plausibilisierung – die grün markierten als valide.

Auf Wochen- und Monatsbasis wurde analog vorgegangen:

Auftragung der Schluss-Regeln auf Wochenbasis

 

Identifizierte Zusammenhänge auf Wochenbasis

 

Mögliche Zusammenhänge auf Monatsbasis

Nach entsprechender Plausibilisierung möglicher kausaler Beziehungen konnten sämtliche bei der Erstellung gebrauchten Annahmen in den Daten identifiziert werden.

Angebotsstufen für einen Einsatz der
Assoziationsanalyse im OpRisk

RiskDataScience ermöglicht Kunden die beschriebenen Verfahren effizient und unternehmensspezifisch einzusetzen und weiterzuentwickeln. Entsprechend den jeweiligen Anforderungen werden dazu folgende drei Ausbaustufen vorgeschlagen.

Stufe 1: Methodik

  • Einweisung in die Methodik der Assoziationsanalyse
  • Übergabe und Installation der vorhandenen Lösungen auf R– und RapidMiner-Basis
  • Übergabe und Dokumentation der Visualisierungs- und Auswertetechniken

Kunde ist in der Lage Methodik eigenständig zu verwenden und weiterzuentwickeln.

Stufe 2: Customizing

  • Stufe 1 und zusätzlich
  • Anpassung und ggf. Neuerstellung von Kriterien zur Regelauswahl gemäß Gegebenheiten des jeweiligen Kunden
  • Analyse der konkreten Risiken, Prozesse und Systeme zur Identifizierung optimaler Einsatzmöglichkeiten
  • Entwicklung einer Prozessbeschreibung für einen effizienten Einsatz
  • Kommunikation und Dokumentation der Ergebnisse an alle Stakeholde

Kunde verfügt über gecustomizte Verfahren und Prozesse zur Analyse operationeller Risiken.

Stufe 3: IT-Lösung

  • Stufe 1, Stufe 2 und zusätzlich
  • Spezifikation aller Anforderungen für eine automatisierte IT-Lösung
  • Vorschlag und Kontaktierung möglicher Anbieter
  • Unterstützung bei der Anbieter- und Tool-Auswahl
  • Unterstützung bei der Planung der Umsetzung
  • Fachliche und koordinative Begleitung des Umsetzungsprojekts
  • Fachlicher Support nach Implementierung der IT-Lösung

Kunde verfügt über automatisierte IT-Lösung zur effizienten Assoziationsanalyse operationeller Risiken.

Je nach Kundenwunsch ist eine flexible Ausgestaltung möglich. Gerne erläutern wir unseren Ansatz auch im Rahmen eines Vorab-Workshops.

Kontakt

Dr. Dimitrios Geromichalos
Founder / CEO
RiskDataScience UG (haftungsbeschränkt)
Theresienhöhe 28, 80339 München
E-Mail: riskdatascience@web.de
Telefon: +4989244407277, Fax: +4989244407001
Twitter: @riskdatascience

Transparente Tools zum Financial Risk Management

Übersicht Problemstellung und Angebot

Financial Risks spielen auch außerhalb der großen Finanzdienstleister – etwa bei Corporates und Kommunen, aber auch im Crowd Funding und Peer to Peer Lending – eine wichtige Rolle.
Während größere Finanzdienstleister – auch auf regulatorischen Druck hin – hochkomplexe Financial Risk-Verfahren im Einsatz haben, werden außerhalb dieses Sektors oft aus Unwissen unnötig hohe Risiken eingegangen.
Financial Risk-Methoden haben sich andererseits bereits seit Jahrzehnten etabliert und müssen – je nach Geschäftsfeld – nicht unbedingt komplex sein.

RiskDataScience verfügt über lauffähige Tools zu den gängigen Financial Risks sowie zu Bewertungsverfahren elementarer Produkte.

Kunden können damit auf transparente Weise ihre eigenen Risiken bewerten und ihr Know How auf diesem Gebiet ausbauen.
Die Methoden sind alle einsehbar und können beliebig angepasst und weiterentwickelt werden.

Mit unserer kostenlosen Web-App FX Risk ermöglichen wir zudem die Berechnung von Fremdwährungsrisiken für ganze Portfolien.

Financial Risks — auch außerhalb großer Fianzdienstleister ein wichtiges Thema

Kleine Finanzdienstleister

Trotz ihres kleineren Geschäftsvolumens und oftmals spezialisierter Geschäftsmodelle sind kleine Finanzdienstleister – Banken, Versicherungen, Leasinggesellschaften und Asset Manager – prinzipiell denselben Financial Risks ausgesetzt wie verwandte große und mittelgroße Finanzdienstleister.
Regulatorisch betrachtet sind die Auflagen und der daraus resultierende Aufwand relativ gering, allerdings müssen kleine Finanzdienstleister mit einer im Allgemeinen dünnen Personaldecke auskommen und sind dementsprechend auf effiziente und robuste Verfahren angewiesen.

Wesentliche Financial Risks sind – je nach Geschäftsfeld – insbesondere Marktrisiken (aufgrund von Preis-Schwankungen bei Investment- und Funding-Produkten), Kreditrisiken (insb. bei Banken) und operationelle Risiken.
Für das Financial Risk Management wird oftmals spezialisierte Software verwendet, diese ist aber nur als „Blackbox“ verfügbar und kann weder eingesehen noch frei angepasst werden

Corporates & Kommunen

Insbesondere die Treasury-Abteilungen von Corporates, Kommunen oder gemeinnützigen Organisationen müssen beim Funding über den Kapitalmarkt oder bei diesbezüglichen Investitionen Marktrisiken in Kauf nehmen.
Entsprechend groß ist das Interesse sich über Hedges abzusichern. Hier ist man jedoch in der Regel auf das Know How von Banken angewiesen, eine unabhängige Kontrolle von Preisen und Risiken von Derivaten ist nicht immer möglich.
Die Quantifizierung operationeller Risiken ist ein weiterer Themenkreis, für den nicht immer adäquate Methoden vorhanden sind.

FinTechs

FinTechs – etwa im Bereich Crowd Funding, Peer to Peer Lending oder Robo Advisory – bieten effizient Finanzdienstleistungen an und punkten mit disruptiven Geschäftsmodellen.
Andererseits stoßen sie bei möglichen Kunden oft nach wie vor auf Akzeptanzprobleme und sehen sich möglichen künftigen regulatorischen Risiken gegenüber.

Umso wichtiger ist es hier eigenes Know How im Financial Risk aufzubauen und die Risiken für die Kunden zu minimieren bzw. transparenter zu machen:

  • Kreditrisiko: Z.B. beim Peer to Peer Lending
  • Marktrisiko: Z.B. bei Robo Advisory
  • Operationelles Risiko: Bei Payments, etc.

Financial Risk-Kategorien

Die quantifizierbaren Financial Risks lassen sich mehreren Gruppen zuordnen.

Kreditrisiken

Unter Kreditrisiken versteht man Risiken durch Kreditereignisse, wie Zahlungsausfall, Zahlungsverzug, Herabstufung der Kreditwürdigkeit oder Einfrierung der Währung.
Eine weitere Unterscheidung betrifft die Einteilung in Emittenten- (bei Anleihen), Kontrahenten- (bei Derivate-Geschäften) und Kreditausfallrisiken von Kreditnehmern i.e.S.
Die Messung von Kreditrisiken erfolgt insb. über Ratings. Diese erfordern eine hinreichend große historische Referenz-Datenbank, die quantitative (z.B. Verschuldungsgrad, Eigenkapitalquote) und qualitative Kennzahlen (z.B. Qualität des Managements, Zukunftsaussichten) für Unternehmen bekannter Bonität enthält.
Im Falle mehrerer Kredite sind zudem Ausfallkorrelationen und hieraus Diversifikationseffekte (im positiven Fall) oder Klumpenrisiken (im negativen Fall) zu beachten.

Marktrisiken

Marktrisiken resultieren aus der Möglichkeit ungünstiger Änderungen relevanter Marktparameter wie Zinsen, Wechselkurse, Credit Spreads, Aktien- und Anleihekursen, Volatilitäten oder Rohstoffpreisen.
Die Risiken manifestieren sich in Preisänderungen von Wertpapieren und Derivaten.
Marktrisiken betreffen beide Seiten der Bilanz und machen sich auch bei Finanzierungen über Kredite bemerkbar.
Im Unterschied zu den übrigen Risiken können sich bei hohen Marktrisiken auch hohe Chancen ergeben.

Operationelle Risiken

Operationelle Risiken lassen sich je nach Ursache den folgenden Kategorien zuteilen

  • Menschen: z.B. Betrug, mangelnde Kennt-nisse, Mitarbeiter-Fluktuation
  • Prozesse: z.B. Transaktionsfehler, Projekt-risiken, Reportingfehler, Bewertungsfehler
  • Systeme: z.B. Programmierfehler, Abstürze
  • Externe Ereignisse: z.B. Klagen, Diebstahl, Feuer, Überschwemmungen

Angebotene Tools

Im Folgenden werden Financial Risk-Verfahren aus dem Portfolio von RiskDataScience vorgestellt. Die funktionsfähigen Tools sind alle transparent und einsehbar und – bis auf das Kreditrating-Tool – auf VBA- bzw. Python-Basis entwickelt worden.

Kreditrating-Tool

Das Rating-Tool von RiskDataScience basiert im Gegensatz zu den übrigen Risk-Tools auf der freien Mining-Software RapidMiner (Version 5.3). Methodisch ist es an das z-Score-Modell von Altman (Regression von Kennzahlen aus Bilanzdaten) angelehnt.

Methodik

Für die Analyse der Bilanzdaten werden Data Mining-Methoden aus dem Bereich Data Science / Machine Learning genutzt. Die hierfür relevanten Supervised Learning-Algorithmen werden wie folgt eingesetzt

  • Die Algorithmen werden mit bekannten Datensätzen darauf „trainiert“ Datensätzen den jeweiligen Kategorien (insolvent gegangenes – nicht insolvent gegangenes Unternehmen) zuzuordnen
  • Unbekannte Fälle können anschließend bekannten Kategorien mit bestimmten Konfidenzen zugeordnet werden
  • Die Güte der Klassifikation wird mittels spezifischer Kennzahlen und Validierungsverfahren wie der Accuracy (Trefferquote), der Area Under the Curve (AUC; Plot Anteil True Positives über Anteil False Positives) oder Lift-Kurven (Pareto-Plot; Effektivitätstest mittels Vergleich mit Zufallsauswahl) überprüft

Vorbereitung

Aus den veröffentlichten Bilanzen und GuVs aus dem jeweiligen Jahr vor der Insolvenz müssen für das Trainings-Sample gemäß z-Score-Modell Kennzahlen wie

  • Eigenkapital / Assets
  • Gewinnrücklagen / Assets
  • EBIT / Assets
  • Eigenkapital / Schulden
  • Umsatzerlöse / Assets

ermittelt werden. Die gleichen Kennzahlen sind zudem für ein Referenz-Set nicht insolvent gegangener Unternehmen zu bilden.

Generell muss hier angemerkt werden, dass die Qualität des Rating-Verfahrens mit der Anzahl und Güte der ermittelten Daten ansteigt.

Klassifikation

Nach Ermittlung der Portfoliostruktur erfolgt ein Supervised Learning mittels Trainings-Sample (Unternehmen mit bekannter Zuordnung).
In Betracht kommt hier insb. der Algorithmus W-Logistic (modifizierte logistische Regression), aber auch Verfahren wie Rule Induction (Ermittlung von Regeln) und Random Forest (Set von zufälligen Entscheidungsbäumen).
Anschließend können die trainierten Algorithmen auf zu ratende Unternehmen zur sofortigen Klassifikation angewendet werden.

Anwendungsbeispiel

Anhand der Bilanzkennzahlen von über 50 insolvent gegangenen Unternehmen (aus dem Jahr vor der Insolvenz) sowie entsprechender nicht-insolventer Referenz-Unternehmen wurden die Kennzahlen gemäß z-Score-Modell berechnet.
Die Analyse wurde mittels des RapidMiner-Tools durchgeführt und ergab Trefferquoten von über 70%.
Auch die Area Under the Curve und die Lift-Kurven deuten auf eine hohe Rating-Güte hin (s. u.).

AUC In-Sample-Test
Lift-Kurve In-Sample-Test

Kreditrisiko-Tools

RiskDataScience bietet Routinen auf VBA-Basis zu folgenden Themen an

  • Kreditausfälle: Anhand eines vorgegebenen Ratings und einer Migrationsmatrix werden Ausfallwahrscheinlichkeiten über einen mehrjährigen Zeitraum berechnet. Zudem erfolgt u.a. die Berechnung der marginalen und kumulativen Ausfallwahrscheinlichkeit sowie der Überlebensrate.
  • Marktmethoden
    • Berechnung der impliziten Ausfallwahrscheinlichkeit aus risikolosem und tatsächlichem Zins
    • Berechnung der Ausfallwahrscheinlichkeit nach dem Merton-Modell
    • Berechnung der „gestressten“ Ausfallwahrscheinlichkeit unter Berücksichtigung von Marktkorrelationen (Basel II-Formel)
  • Ausfall-Anteil
    • Ermittlung von Fit-Kurven anhand (bilanzieller) Kennzahlen und externer Ratings als mögliche Berechnungsgrundlage für interne Ratings
    • Berechnung von Kennzahlen wie α, β und
    • Fit durch lineare oder logistische Interpolation
  • Backtesting: Gegenüberstellung von Ausfallwahrscheinlichkeiten und tatsächlichen Ausfällen zur Modell-Validierung sowie Ermittlung des Gini-Koeffizienten als Maß für die Trennschärfe des zu validierenden Rating-Verfahrens
  • Portfolio-VaR: Ermittlung des gesamten Value at Risks für ein Portfolio mit bekannten Teil-Value at Risks und bekannter Korrelationsmatrix.
    Das Verfahren ist generisch und kann auch für andere Risikoarten verwendet werden.

Marktrisiko-Tools

RiskDataScience bietet Routinen auf VBA-Basis zu folgenden Themen an

  • PV aus Cashflows
    • Berechnung des Barwerts (Present Value, PV) aus vorgegebenen Cashflow-Zeitreihen
    • Berücksichtigung unterschiedlicher Tageszählkonventionen (act/act, 30/360,…) und Diskontierungsmethoden
    • Berechnung von Clean und Dirty PV, Duration und Konvexität
  • VaR
    • Ermittlung des Value at Risks für eine vorgegebene Zahlenmenge und vorgeg. Konfidenzniveau
    • Ermittlung weiterer Kennzahlen wie Standardabweichung, Expected Shortfall und erwartete Anzahl an Ausreißern
  • Optionen
    • Preisermittlung für Call- und Put-Optionen anhand der Black-Scholes-Formel
    • Ermittlung der Sensitivitäten Delta, Gamma, Rho, Theta und des Value at Risk (VaR) auf Black-Scholes-Basis
    • Des weiteren Preisermittlung nach dem Garman-Kohlhagen-Modell
  • Stückzins
    • Berechnung des Barwerts (Present Value, PV) aus vorgegebenen Cashflow-Zeitreihen
    • Berücksichtigung unterschiedlicher Tageszählkonventionen (act/act, 30/360,…)
    • Berechnung von Clean und Dirty PV sowie des Stückzinses (Accrued Interest)
  • Zinskurven
    • Umfassendes Tool zur Berechnung von Barwert, Zinssensitivitäten (Basis Point Value, BPV) sowie des VaR auf Varianz-Kovarianz-Basis aus Cashflow-Zeitreihen, Zinskurven und der Zins-Korrelationsmatrix
    • Außerdem Ermittlung des Par Yield-Zinses und der Forward-Zinskurve
  • Zins-Derivate: Ermittlung von Barwerten unter Berücksichtigung von Zinskurven Zinskurven für die Zins-Derivate Swaps, Forward Rate Agreements (FRAs), Futures, Caps und Floors

OpRisk-Tool

Das RiskDataScience OpRisk-Tool berechnet den VaR für den Fall unkorrelierter operationeller Risiken mit bekanntem Schadensausmaß und bekannter Häufigkeit.

Angebotsstufen für eine Nutzung der Financial Risk-Tools

RiskDataScience ermöglicht Kunden die beschriebenen Verfahren effizient und unternehmensspezifisch einzusetzen und weiterzuentwickeln. Entsprechend den jeweiligen Anforderungen werden dazu folgende drei Ausbaustufen vorgeschlagen.

Stufe 1: Methodik

  • Einweisung in Methodik der jeweils relevanten Tools
  • Übergabe und Installation der vor-handenen Lösung auf VBA-Basis (OpenOffice) inkl. Dokumentation
  • Übergabe und Installation der vorhandenen RapidMiner-Lösung für Kredit-Ratings
    Kunde ist in der Lage Methodik eigenständig zu verwenden und weiterzuentwickeln.

 

Stufe 2: Customizing

  • Stufe 1 und zusätzlich
  • Eruierung der für den Kunden relevanten Risiken und Auswahl sowie ggf. Anpassung der entsprechenden Tools
  • Anfertigung einer methodischen Beschreibung mit dem gewünschten Detaillierungsgrad
  • Entwicklung einer Prozessbeschreibung für einen effizienten Einsatz
  • Kommunikation und Dokumentation der Ergebnisse an alle Stakeholder
    Kunde verfügt über gecustomizte Verfahren und Prozesse zur Analyse von Financial Risks.

 

Stufe 3: IT-Lösung

  • Stufe 1, Stufe 2 und zusätzlich
  • Spezifikation aller Anforderungen für eine automatisierte IT-Lösung
  • Vorschlag und Kontaktierung möglicher Anbieter und Unterstützung bei der Anbieter- und Tool-Auswahl
  • Unterstützung bei der Planung der Umsetzung sowie fachliche und koordinative Begleitung des Umsetzungsprojekts
  • Fachlicher Support nach Implementierung der IT-Lösung
    Kunde verfügt über automatisierte IT-Lösung für Financial Risk-Berechnungen.

 

Je nach Kundenwunsch ist eine flexible Ausgestaltung möglich. Gerne erläutern wir unseren Ansatz auch im Rahmen eines Vorab-Workshops.

Kontakt

Dr. Dimitrios Geromichalos
Founder / CEO
RiskDataScience UG (haftungsbeschränkt)
Theresienhöhe 28, 80339 München
E-Mail: riskdatascience@web.de
Telefon: +4989244407277, Fax: +4989244407001
Twitter: @riskdatascience