• Aufsichts-Anforderungen an Datenqualität und DQM
  • Auswirkungen der Datenqualität auf die Erfüllung der neuen DORA-Anforderungen und die MaRisk-konforme Risikodatenaggregation
  • Abbildung des Datenrisikos in IKT-Risikomanagement und OpRisk
  • Häufig identifizierte Schwachstellen im DQM und notwendige Maßnahmen in den Instituten
  • Ansätze zur Prüfung des DQM durch die Revision

Die Datenqualität und das Datenqualitätsmanagement sind durch die Digitalisierung und die Ausweitung der aufsichtlichen Vorgaben (DORA, BCBS 239, EBA-ICT-GL, BaFin-Papiere) erklärter Schwerpunkt bei Aufsichts-, Abschluss- und Sonderprüfungen. Somit ist das Datenrisiko auch im OpRisk und IKT-Risikomanagement entsprechend zu berücksichtigen.

Das Thema Datenqualität ist allerdings nur schwer greifbar und äußerst schnittstellenbehaftet. Eine zunehmend hohe Zahl an wesentlichen (F3) und schwerwiegenden (F4) Feststellungen sind bei den (Sonder-)Prüfungen der Aufsicht zu erkennen.

Insbesondere große Datenmengen (BIG DATA) lassen sich aufgrund uneinheitlicher Systeme und Datenformate aber nur schwer analysieren. Dabei bietet die Auswertung großer Datenmengen enorme Vorteile für die Fachbereiche und die Revision, da unterschiedliche Auswertungsmöglichkeiten auf Basis von Einzel- und Gesamtrisiken nach verschiedenen Aggregationsstufen bestehen.

Ob der Einsatz von KI hier eine sinnvolle Lösung sein kann oder ob dadurch neue und zusätzliche Risiken entstehen, ist in die Überlegungen bei der Risikobewertung mit einzubeziehen.

Das Seminar gibt wertvolle Anregungen, Praxis- und Prüfungstipps für die Herangehensweise an das schwer greifbare Thema Datenqualität.

Referenten

Daniel Schmidt
Prüfungsleiter Bankgeschäftliche Prüfungen
Deutsche Bundesbank
Hannover
Thomas Klupp
Senior Manager
KPMG AG Wirtschaftsprüfungsgesellschaft
Hamburg
Dr. Karsten Geiersbach
Bereichsdirektor Interne Revision
Kasseler Sparkasse
Kassel