Künstliche Intelligenz (KI) entfaltet im Finanzdienstleistungssektor ein enormes Potenzial, muss jedoch klaren Regeln unterworfen sein, insbesondere wenn menschliche Belange wie bei der Kreditwürdigkeitsprüfung betroffen sind. Das Deutsche Institut für Normung e. V. (DIN) hat in diesem Kontext die neue DIN SPEC 91512:2025-09 veröffentlicht, welche sich auf die Fairness von KI-Anwendungen im Finanzsektor konzentriert. Die Norm ist aus dem vom Bundesministerium für Wirtschaft und Klimaschutz (BMWK) geförderten Projekt „Deutsche Normungsroadmap KI“ hervorgegangen. Sie stellt ein Grundgerüst für anwendungs- und situationsspezifische Fairness von KI-Anwendungen in der Praxis von Finanzdienstleistungen dar.
Fairness in KI-Systemen
Der Begriff der Fairness im technisch-wissenschaftlichen Diskurs ist eine Adaption des umgangssprachlichen Ausdrucks „Nicht-Diskriminierung“. Fairness ist ein ethisches Prinzip, das den reproduzierbaren Grad der Gleichbehandlung verschiedener Personen über alle Stufen des KI-System-Lebenszyklus beschreibt. Um Fairness zu gewährleisten, müsse laut der DIN SPEC 91512 die Branche unbeabsichtigte Diskriminierung vermeiden. Dies soll idealerweise durch Fairness by Design erreicht werden. Dabei werden Fairness-Aspekte bereits in der Planungsphase des KI-Systems berücksichtigt, um Verzerrungen (Bias) in den Trainingsdaten zu vermeiden. Bias bezeichnet in diesem Zusammenhang eine systematisch unterschiedliche Behandlung bestimmter Gruppen im Vergleich zu anderen.
Regulatorische Leitplanken
Der Einsatz von KI im Finanzsektor ist aufgrund der potenziell gravierenden Folgen für betroffene Personen, die durch falsch kalibrierte oder unkontrollierbare Modelle entstehen können, besonders risikoreich. Entsprechend eng ist der regulatorische Rahmen. Die im Mai 2024 verabschiedete KI-Verordnung (Regulation (EU) 2024/1689) reguliert den Einsatz KI-basierter Technologien in der Europäischen Union risikobasiert. Hochrisiko-KI-Systeme, wie sie oft im Finanzwesen eingesetzt werden, unterliegen strengen Anforderungen an Risikomanagement und Daten-Governance. Ergänzend zur KI-VO wird der Finanzsektor stark von den Anforderungen der Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) geprägt.
Zudem hat das Bundesamt für Sicherheit in der Informationstechnik (BSI) mit dem „Test Criteria Catalogue for AI Systems in Finance“ einen Prüfrahmen für den Finanzsektor vorgestellt. Dieser Katalog umfasst nahezu 100 konkrete Testkriterien. Er bietet klare, praxisorientierte Vorgaben für Entwickler, Betreiber und Prüforganisationen, um die Sicherheit, Fairness, Transparenz und Zuverlässigkeit von KI-Systemen zu evaluieren.
Fairnesskonzepte und -metriken
Zur Bestimmung von Fairness sind Maße und Metriken notwendig, die idealerweise automatisiert bestimmbar sind. Die DIN SPEC konzentriert sich auf Gruppenfairnessmaße, welche Personengruppen, die sich in bestimmten Merkmalen ähneln (z. B. Geschlecht oder Alter), miteinander vergleichen. Die Auswahl eines geeigneten Qualitätsmaßes, oft basierend auf der Konfusionsmatrix (wie True Positive Rate oder False Negative Rate), ist entscheidend. Dabei muss beachtet werden, dass eine Optimierung zugunsten eines bestimmten Qualitätsmaßes fast immer zu einer Verschlechterung nach mindestens einem anderen Maß führt. Ein wichtiges, nicht auf Qualitätsmaßen basierendes Maß ist die Predictive Parity. Dieses vergleicht den Anteil an Personen verschiedener demographischer Gruppen, die in die gleiche Klasse kategorisiert werden, unabhängig davon, ob die Klassifizierung korrekt war.
Als Methode zur Ermittlung eines angemessenen Verständnisses von Fairness schlägt die DIN SPEC Assurance Cases vor. Dieses Framework dient als strukturierte Argumentationsmethode, um zu begründen, warum eine Sammlung von Beweisen (z. B. Testergebnisse oder Fairnessmaße) die Hauptbehauptung untermauert, dass ein KI-System fair ist.
Der „KI-Beauftragte“ –
Ihre Lösung für rechtssichere KI-Compliance
Wir bieten Unternehmen eine umfassende Lösung für die rechtlichen und regulatorischen Herausforderungen, die der Einsatz von KI mit sich bringt.

Anwendungsfall: KI in der Kreditwürdigkeitsprüfung
Im Kreditwesen werden KI-Systeme zunehmend eingesetzt, um Bonitätsentscheidungen zu treffen und Prozesse zu beschleunigen. Gerade bei Kleinkrediten zwischen 1.000 und 80.000 Euro werden vereinfachte Datensätze – wie Einkommen, Wohnsituation oder Beschäftigungsstatus – ausgewertet. Dabei besteht jedoch das Risiko, dass gesellschaftliche Vorurteile, die sich in historischen Daten widerspiegeln, unbeabsichtigt fortgeschrieben werden. Banken greifen in solchen Fällen häufig auf externe Auskunfteien zurück, um Bonitätsdaten zu ergänzen.
Nutzung externer Auskunfteien
Die Nutzung von Daten externer Auskunfteien, wie der SCHUFA, im Kontext KI-gestützter Bonitätsprüfungen steht unter besonderer rechtlicher Beobachtung. Grundlegend darf unabhängig von den Vorteilen der KI die endgültige Entscheidung über die Kreditvergabe nicht allein auf einem automatisierten System basieren. Artikel 22 DSGVO legt fest, dass Betroffene nicht ausschließlich vollautomatisierten Entscheidungen unterworfen sein dürfen, die erhebliche Auswirkungen auf sie haben. Diesbezüglich hat der Europäische Gerichtshof (EuGH) bereits 2023 klargestellt, dass die Bonitätsprüfung durch die SCHUFA in ihrer damaligen Form rechtswidrig war und dem Schufa-Scoring klare Grenzen gesetzt.
In einem ähnlich gelagerten Fall hat die österreichische Datenschutzbehörde (DSB) die vollautomatisierte Bonitätsprüfung einer Kreditauskunftei (KSV1870, analog zur SCHUFA) nach einer Beschwerde der Bürgerrechtsorganisation noyb gestoppt. Die Behörde ordnete auch an, dass eine verständliche und nachvollziehbare Erläuterung zur getroffenen Entscheidung bereitzustellen ist. Das Landgericht (LG) Lübeck hat zudem Fragen an den EuGH (C-594/25) zur Übermittlung von Positivdaten an die SCHUFA gestellt. Das Gericht äußert Zweifel, ob Art. 6 Abs. 1 lit. f DSGVO (berechtigtes Interesse) als Rechtsgrundlage für die massenhafte Übermittlung solcher Daten dient, insbesondere wenn diese zur Profilbildung (Scoring) genutzt werden.
Geeignete Fairnessmetrik
Der Einsatz von KI kann den Prozess beschleunigen und Objektivität gewährleisten, birgt jedoch das Risiko, gesellschaftliche Vorurteile, die in verzerrten Daten (biased data) abgebildet sind, zu reproduzieren. Angesichts der Zielkonflikte wird in der DIN SPEC die „Conditional Statistical Parity“ als relevante Fairness-Metrik hervorgehoben. Diese Metrik hilft, eine feinere Analyse der Diskriminierung zu ermöglichen, indem sie zusätzliche Attribute berücksichtigt, die erklären könnten, warum bestimmte diskriminierende Ergebnisse auftreten. Das Hauptprinzip ist, sicherzustellen, dass die Wahrscheinlichkeit einer Kreditgenehmigung für alle Antragsteller, die ansonsten ähnliche finanzielle Profile aufweisen, gleich ist, ungeachtet ihrer Gruppenzugehörigkeit.
Aus prozeduraler Sicht ist die Transparenz entscheidend. Hier fordert die DIN SPEC Erklärungen, die Antragsstellern nachvollziehbar darlegen, warum ihr Antrag abgelehnt oder angenommen wurde, beispielsweise durch kontrafaktische Erklärungen. Unabhängig vom verwendeten KI-System gilt die Vorschrift aus Art. 22 DS-GVO, dass die endgültige Entscheidung über eine Kreditvergabe nicht allein auf einem automatisierten System basieren darf.
Bedeutung für die Branche
Die DIN SPEC 91512 und ergänzende Leitlinien, wie der Kriterienkatalog des BSI, setzen klare Leitplanken für die KI-Governance im gesamten Finanzsektor. Für Unternehmen bedeutet dies eine dringende Notwendigkeit, ihre KI-Systeme systematisch auf Fairness zu prüfen und zu dokumentieren. Die DIN SPEC bietet hierfür konkrete praktische Ansätze zur Sicherstellung von Fairness. Dazu zählt die Datenanalyse und -bereinigung der Trainings- oder Testdaten auf inhärente Vorurteile. Des Weiteren sollten nur Modellmerkmale verwendet werden, die keine potenziell diskriminierenden Eigenschaften nutzen oder solchen Merkmalen eine reduzierte Bedeutungsgewichtung zukommen lassen. Nicht zuletzt ist eine stetige und periodische Überwachung auf Modellverschiebungen oder Voreingenommenheiten (Bias) notwendig. Die Integration des BSI-Kriterienkatalogs oder der DIN SPEC 91512 kann Finanzinstituten helfen die regulatorischen Anforderungen der KI-Verordnung effizient in bestehende Compliance-Strukturen und Qualitätsmanagementsysteme zu integrieren.
Fazit
Die Veröffentlichung der DIN SPEC 91512 ist ein wichtiger Schritt zur Standardisierung und Operationalisierung vertrauenswürdiger KI in der hochregulierten Branche der Finanzdienstleistungen. Angesichts der zunehmenden Automatisierung von Prozessen, wie der Kreditvergabe oder dem Sanktionsscreening, profitieren Anbieter, Entwickler und Nutzer von KI-Lösungen von klaren Leitlinien und Standards, die objektive und automatisiert nachprüfbare Regeln bieten. Letztendlich sorgt eine proaktive Beschäftigung mit den in der DIN SPEC dargelegten Prinzipien für eine erhöhte Rechtssicherheit und trägt zur Sicherstellung der Vertrauenswürdigkeit der KI-basierten Finanzprodukte bei.
Die DIN SPEC 91512 ist derzeit kostenfrei als PDF-Version erhältlich. Wenn Sie Fragen zur praktischen Umsetzung der neuen Anforderungen haben oder Unterstützung bei der Integration in bestehende Compliance- und Governance-Strukturen wünschen, stehen Ihnen unsere KINAST Rechtsanwältinnen und Rechtsanwälte sowie unsere Datenschutz- und KI-Expertinnen und -Experten gerne beratend zur Seite. Wir unterstützen Sie dabei, die regulatorischen Vorgaben rechtssicher und praxisorientiert in Ihre Geschäftsprozesse zu integrieren und die Chancen vertrauenswürdiger KI-Lösungen gezielt zu nutzen.









