Datenmanagement in einer großen deutschen Großbank

NICE Actimize Implementierung zur Geldwäschebekämpfung (AML)

Datenmanagement im AML einer großen deutschen Bank

Bei der behördlichen Prüfung wurden unzureichende Kontrollen bei der Überwachung von Geldwäschetransaktionen und dem Alert & Case Management bei unserem Kunden festgestellt. Um den Mangel an Daten Mangement zu beheben, war externe Unterstützung erforderlich, um die Prüfungsfeststellung abzuschließen.

Das Team von AS Scope half und leitete den Aufbau der ausgewählten strategischen Plattform NICE Actimize unter Berücksichtigung der lokalen behördlichen Anforderungen. Innerhalb kurzer Zeit konnte die Compliance-Abteilung konsolidierte Daten und qualitätsgeprüfte Daten für alle Standorte bereitstellen. In einem Jahr ist es unserem Kunden gelungen, NICE Actimize für zehn Standorte freizugeben (inkl. Datenqualitätskontrollen).

Zieltechnologie

  • NICE Actimize
  • ETS Modul (Handelsüberwachung)
  • Regeln zur Transaktionszuordnung
  • Data requirement sheet (DRS) NICE Actimize
  • UDM Datenmodell and CDS Datenmodell
  • Customer​ Due Diligence​ (CDD)​​
  • ​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​Transformation der Transaktionsüberwachung & Reporting von verdächtigen Aktivitäten (SAM)
  • Überwachung der Sanktionen und Watch Liste Filterung (WLF)
  • Untersuchung und Case Management

Unsere Aufgaben

  • Datenaufbereitung und Datenerkennung
  • End-to-End-Untersuchung von Transaktionen
  • Auflösung der einzelnen Transaktionstypen (1: 1, 1: n, n: m)
  • Transaktionscode-Zuordnung
  • nalyse der Quellsysteme zur Ableitung der Stammdaten für NICE Actimize (Party, Account, Party-Account-Relation, etc.)
  • Depotuntersuchung
  • ​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​Datenbereinigung und Datenvorbereitung für KYC-Bewertung
  • Integration externer Informationen und Daten (z.B. Bureau Van Dijk, EU-Daten, Unternehmensregister usw.)

Automatisierte Prozesse mit externen Daten

Effizientes Management von Finanzkriminalitätsrisiken durch automatisierte Prozesse! Unser Ansatz kombiniert alle Prozesse, um durch Transaktionsüberwachung und KYC-Reviews erhebliche Effizienzsteigerungen zu erzielen.

Requirements and Deliverables

Probleme des alten Prozesses

  • Zu viele Alerts
  • Manuelle Auswahl riskanter Transaktionen
  • Manueller Prozess für RFI
  • Keine Verbindung zwischen verschiedenen Systemen
  • Doppelarbeit während den Recherchen für die Alerts
  • Manuelle oder keine Verwendung von historischen Alert Daten
  • Manuelles Hinzufügen von Informationen
  • Prozesse sind anfällig basierend auf menschliche Fehler
  • Eingeschränkter oder kein Zugang zu zuvor durchgeführten Recherchen

Individuelle Herangehensweise

  • Anreicherung von Alerts mit Red Flags
  • Dynamische Entscheidungsmatrix zur Navigation durch den Ermittlungsprozess unter Berücksichtigung von Red Flags und Verfahrensanforderungen
  • Kollaborative Plattform
    • Vollautomatische RFI und sonstige Interaktion mit beteiligten Parteien
    • Verfolgung und Profilerstellung von Interaktionen
    • Beteiligte Parteien werden mit historischen Daten verglichen
  • Untersuchungs-WIKI (z. B. Produkte, Korridore, Alerts)
    • Informationsaustausch
    • Analysten profitieren von zuvor ausgeführten Arbeiten
  • Sofortiger Zugriff auf die gesamte Historie und relevante Daten
  • Transaktionsprofilerstellung basierend auf Millionen von Transaktionen, die im Geschäftskontext wie üblich überwacht und untersucht werden
  • Alert-Scoring, qualitative Validierung von Erkennungsregeln und deren Parametern basierend auf Alert- und Fallanalyse
  • Mustererkennung mittels statistischer Analyse

Implementierung von Datenqualitätsprüfungen

Die folgenden Datenqualitätsprüfungen (DQ) wurden definiert und implementiert:

  • Vollständigkeit der Daten nach der Extraktion aus dem Quellsystem und Durchführung einer Transformationslogik auf die Daten.
  • Validität, um sicherzustellen, dass Format, Art und Länge der Daten den vorgegebenen Regeln entsprechen.
  • Plausibilität, die große, skalierbare Bewegungen in der Datenlieferung hervorhebt, um die Richtigkeit und Konsistenz der in das Zielsystem transformierten Daten sicherzustellen.
  • Aktualität der Daten, um sicherzustellen, dass die Datenlieferung auf dem neuesten Stand ist.
  • Konsistenz, um die Regelmäßigkeit der Quelle und auch der transformierten Daten sicherzustellen.
  • Eindeutigkeit, um die Solidität und Eindeutigkeit der Quelle zu gewährleisten, aus der die Daten in das Nice Actimize-Datenmodell transformiert werden.
  • Integrität, um die Richtigkeit der Datenbeziehungen zu gewährleisten.

Die Überprüfungen werden täglich durchgeführt und ein DQ-Bericht erstellt, der Folgendes erfasst:

  • Jeder Verstoß gegen die definierten Regeln
  • Schwere des Ausfalls
  • Auswirkungen des DQ-Problems

Der Data Quality Manager überprüft den Bericht und verfolgt täglich den Datenqualitätsprozess, um die Probleme zu lösen oder zu mindern. Er muss auch sicherstellen, dass eine eventuelle Umstellung oder Änderung der Datentransformationslogik rechtzeitig durchgeführt wirden, um die gewünschte Datenqualität zu erhalten.

Sind Sie interessiert?