Lesezeit: ca. 6 Minuten
Generative KI ist in der Finanzbranche angekommen. Laut dem KPMG Cloud-Monitor 2025 nutzen 97 Prozent der Finanzunternehmen für den KI-Betrieb bereits Cloud-Services der Hyperscaler. Interne Chatbots, Dokumentenaufbereitung, Coding-Assistenten und Compliance-Recherche gehören zu den häufigsten Anwendungsfällen. Gleichzeitig hat die BaFin im Dezember 2025 eine Orientierungshilfe zu IKT-Risiken beim Einsatz von KI veröffentlicht, der EU AI Act entfaltet schrittweise seine Wirkung, und DORA stellt neue Anforderungen an das Management von Drittparteienrisiken.
Für Banken stellt sich damit eine zentrale Frage: Wie lassen sich KI-Assistenten wie Anthropics Claude, Microsofts Copilot oder OpenAIs ChatGPT Enterprise regulatorisch konform einsetzen -- und welche Deployment-Modelle kommen für die Finanzbranche überhaupt in Frage?
Wer KI in einer Bank einsetzen will, muss drei regulatorische Ebenen gleichzeitig im Blick behalten:
Der EU AI Act ist seit August 2024 in Kraft und entfaltet seine Wirkung gestaffelt. Seit Februar 2025 gilt das Verbot von KI-Anwendungen mit unannehmbar hohem Risiko sowie die Pflicht zur Sicherstellung einer angemessenen KI-Kompetenz in der Organisation. Ab August 2025 greifen die Pflichten für KI-Modelle mit allgemeinem Verwendungszweck -- also genau die Large Language Models, die hinter Claude, GPT und Copilot stehen. Ab August 2026 gelten dann sämtliche Regelungen für Hochrisiko-KI-Systeme aus Anhang III -- darunter Kredit-Scoring, Bonitätsbewertung und Underwriting.
DORA (Digital Operational Resilience Act) verpflichtet Finanzunternehmen seit Januar 2025, ihre IKT-Risiken systematisch zu managen -- einschließlich der Risiken aus dem Einsatz von KI. Das betrifft insbesondere das Drittparteienrisikomanagement, wenn KI-Services über Cloud-Anbieter bezogen werden. Die BaFin hat angekündigt, 2026 gezielt Themenprüfungen zur DORA-Implementierung bei Instituten und deren IT-Dienstleistern durchzuführen.
Die BaFin-Orientierungshilfe zu IKT-Risiken beim Einsatz von KI vom Dezember 2025 bringt diese Anforderungen zusammen. Sie ist zwar unverbindlich, gibt aber einen klaren Rahmen vor: KI-Systeme sind nicht isoliert zu betrachten, sondern müssen gemäß ihrer Kritikalität für die Geschäftsprozesse bewertet und in das IKT-Risikomanagement eingebettet werden. Besonderes Augenmerk gilt der Cloud-Abhängigkeit, da zahlreiche KI-Systeme ohne Cloud-Dienste nicht betrieben werden können.
Die naheliegende Reaktion vieler Compliance-Abteilungen lautet: Wenn wir KI nutzen, dann bitte auf unserer eigenen Infrastruktur. Doch hier stößt die Finanzbranche auf eine technische Realität: Keiner der führenden LLM-Anbieter bietet derzeit ein echtes On-Premise-Deployment an, bei dem das Modell vollständig auf bankeignener Hardware läuft, ohne jede Cloud-Anbindung.
Anthropic (Claude), OpenAI (GPT) und Google (Gemini) betreiben ihre Modelle ausschließlich in der Cloud. Was sie stattdessen anbieten, ist eine abgestufte Architektur mit zunehmender Sicherheit und Isolation:
Stufe 1 -- Standard-Cloud: Direkte API-Nutzung über den Anbieter. Für regulierte Industrien in der Regel nicht ausreichend, da Daten die eigene Umgebung verlassen und Kontrollmechanismen begrenzt sind.
Stufe 2 -- Hyperscaler mit Isolation: Deployment über AWS Bedrock, Google Vertex AI oder Microsoft Azure -- jeweils mit VPC-Isolation (Virtual Private Cloud), bei der der Datenverkehr das eigene Cloud-Netzwerk nicht verlässt. Dies ist der von der BaFin akzeptierte Standard für Cloud-Auslagerungen, sofern die entsprechenden Governance-Anforderungen erfüllt sind.
Stufe 3 -- Zero-Data-Retention: Ergänzend bieten Anbieter wie Anthropic für Enterprise-Kunden einen Zero-Data-Retention-Modus an, bei dem weder Prompts noch Antworten gespeichert werden. In Kombination mit VPC-Isolation entsteht ein Sicherheitsniveau, das für viele regulatorische Anforderungen ausreicht.
Für Banken, die eine vollständig air-gapped Umgebung ohne jede externe Anbindung benötigen, bleibt derzeit nur der Rückgriff auf Open-Source-Modelle wie LLaMA, Mistral oder Qwen, die auf eigener Infrastruktur betrieben werden können -- allerdings mit deutlichen Abstrichen bei der Leistungsfähigkeit im Vergleich zu den Frontier-Modellen.
Ein verbreitetes Missverständnis in der Finanzbranche lautet: Die BaFin verbietet Cloud-Nutzung. Das Gegenteil ist der Fall. Die Aufsichtsmitteilung zu Auslagerungen an Cloud-Anbieter, zuletzt aktualisiert unter Berücksichtigung von DORA, enthält einen praxisnahen Rahmen, der Cloud-Nutzung ausdrücklich ermöglicht -- unter Einhaltung klarer Bedingungen:
Risikoinventur vor Vertragsabschluss: Vor der Nutzung eines KI-Cloud-Dienstes muss die Bank die Wesentlichkeit der Anwendung, die Sensibilität der verarbeiteten Daten und die technischen Anforderungen bewerten.
Due Diligence des Anbieters: Die Eignung des Cloud-Anbieters muss sichergestellt werden -- einschließlich Zertifizierungen (SOC 2, ISO 27001), Datenschutzmaßnahmen und Notfallkonzepten.
Ausstiegsstrategie: Banken müssen nachweisen, dass sie den Cloud-Anbieter wechseln können, ohne dass kritische Geschäftsprozesse unterbrochen werden. Bei KI-Assistenten bedeutet das: keine proprietären Lock-in-Effekte auf Daten- oder Promptebene.
Konzentrationsrisiken managen: Die BaFin hat für 2026 die Überwachung von Konzentrationsrisiken bei IKT-Auslagerungen als Fokusrisiko benannt. Auf europäischer Ebene haben die ESAs im November 2025 eine Liste von 19 als kritisch eingestuften IKT-Drittdienstleistern veröffentlicht. Für Banken, die bereits stark auf AWS, Azure oder Google Cloud setzen, verschärft der zusätzliche KI-Bezug über denselben Hyperscaler das Konzentrationsrisiko.
Wie können Banken KI-Assistenten nutzen, ohne regulatorisch in die Bredouille zu geraten? Fünf Empfehlungen:
Erstens: Use Cases klassifizieren. Nicht jeder KI-Einsatz hat dasselbe Risikoprofil. Ein interner Coding-Assistent, der keine Kundendaten verarbeitet, ist regulatorisch anders zu bewerten als ein KI-System für Kreditentscheidungen. Die Klassifizierung nach dem EU AI Act (Hochrisiko vs. begrenztes Risiko vs. minimales Risiko) sollte als Ausgangspunkt dienen.
Zweitens: Deployment-Architektur an den Use Case anpassen. Für interne Produktivitätstools kann eine VPC-isolierte Cloud-Lösung mit Zero-Data-Retention ausreichend sein. Für Hochrisiko-Anwendungen wie Kreditentscheidungsunterstützung sollten Banken prüfen, ob Open-Source-Modelle auf eigener Infrastruktur die bessere Wahl sind -- auch wenn die Leistungsfähigkeit geringer ausfällt.
Drittens: KI in das IKT-Risikomanagement integrieren. Die BaFin-Orientierungshilfe ist eindeutig: KI ist kein Sonderthema, sondern muss in das bestehende IKT-Risikomanagement nach DORA eingebettet werden. Das bedeutet: Risikobewertung, Monitoring, Incident-Management und regelmäßige Überprüfung -- nicht als einmaliges Projekt, sondern als laufender Prozess.
Viertens: KI-Kompetenz aufbauen. Seit Februar 2025 fordert der EU AI Act eine angemessene KI-Kompetenz in der Organisation. Für Banken heißt das: Nicht nur die IT-Abteilung, sondern auch Risikomanagement, Compliance und die Fachabteilungen müssen verstehen, wie KI-Systeme funktionieren, welche Grenzen sie haben und welche regulatorischen Anforderungen gelten.
Fünftens: Multi-Vendor-Strategie verfolgen. Um Konzentrationsrisiken zu mindern und die Ausstiegsfähigkeit zu gewährleisten, sollten Banken nicht auf einen einzigen KI-Anbieter setzen. Die parallele Nutzung verschiedener Modelle -- etwa Claude über AWS Bedrock und ein Open-Source-Modell auf eigener Infrastruktur -- schafft Flexibilität und reduziert Abhängigkeiten.
Die regulatorischen Hürden für den Einsatz von KI-Assistenten in Banken sind real, aber überwindbar. Weder die BaFin noch DORA oder der EU AI Act verbieten den Einsatz generativer KI in der Finanzbranche. Sie verlangen jedoch eine strukturierte Herangehensweise: klare Risikobewertung, angemessene technische Schutzmaßnahmen, sorgfältige Anbieterauswahl und laufendes Monitoring.
Banken, die sich dieser Herausforderung stellen, gewinnen nicht nur Produktivitätsvorteile -- sie positionieren sich auch als attraktive Arbeitgeber in einem Markt, in dem der Wettbewerb um talentierte Mitarbeitende zunehmend auch über die Qualität der eingesetzten Tools entschieden wird.
Gutmark, Radtke & Company unterstützt Finanzinstitute bei der regulatorisch konformen Einführung von KI-Lösungen -- von der Use-Case-Bewertung über die Deployment-Architektur bis hin zur Integration in das IKT-Risikomanagement nach DORA. Sprechen Sie uns an.