--------- Website Scaling Desktop - Max --------- -------- Website Highlight Effekt ---------

LLMs, Bankwesen und das EU-KI-Gesetz: Was zu erwarten ist

Da KI in der kommerziellen Nutzung immer reifer wird, entwickeln sich mehrere gängige Anwendungen, die den Bedürfnissen der Branchen entsprechen, in denen sie eingesetzt werden. Angesichts des hochgradig quantitativen Charakters der Branche selbst nimmt das Bankwesen eine führende Rolle ein Top-Anwender von KI weltweit.

Umfassende Gesetze werden jedoch bald Realität werden, die Unternehmen schnell einhalten müssen, da das EU-Gesetz über künstliche Intelligenz eine Reihe spezifischer regulatorischer Anforderungen vorschreiben wird — das Bankwesen ist somit eine der am stärksten betroffenen Branchen. Es muss beachtet werden, dass die erwarteten Vorschriften des EU-KI-Gesetzes nicht nur branchenspezifisch gelten werden, sondern stattdessen spezifische Standards für jedes KI-Modell vorsehen werden, je nach dessen Eigenschaften. Während der Rat die Risikokategorien „Minimal“, „Eingeschränkt“, „Hoch“ und „Inakzeptabel“ skizziert, stellt sich die Frage, welche spezifischen Auswirkungen die Banken noch haben, und zu welchen besonderen Maßnahmen wird ihnen geraten?

Bankwesen und KI-Stimmung

Wie beschrieben von der Wirtschaftswissenschaftler, eine Umfrage unter IT-Führungskräften ergab, dass 85% der Befragten eine „klare Strategie“ bei der Einführung von KI bei der Entwicklung neuer Produkte und Dienstleistungen angeben. 62% der Banken räumten jedoch ein, dass „der Umgang mit personenbezogenen Daten für KI-Projekte häufig mit der Komplexität und den Risiken verbunden ist“ überwiegen die Vorteile für das Kundenerlebnis“. Das KI-Risikomanagement ist im Finanzsektor ein gemeinsames Anliegen, doch die Naivität der KI selbst weckt unsichere Erwartungen an angemessene KI-Risikomanagementansätze in diesem Bereich. Wie können wir also vorgehen, um sicherzustellen, dass das Bankwesen das Gesetz trotz der vielfältigen Einsatzmöglichkeiten einhält?

Die häufigsten KI-Anwendungsfälle im Bankwesen: der Aufstieg von LLMs

Es ist wichtig zu beachten, welche Anwendungsfälle in den meisten Bankennetzwerken am häufigsten verwendet werden, da der Finanzsektor häufig auf ähnliche Anwendungen abzielt:

- Preismodelle für Kredite: Wird verwendet, um die Wahrscheinlichkeit einer pünktlichen Zahlung auf der Grundlage historischer Datensätze vorherzusagen. Dazu gehören Modelle des maschinellen Lernens (ML), einschließlich logistischer Regression, Entscheidungsbäume, Random Forests und Gradienten-Boosting-Algorithmen.

- Bonitätsprüfung: Verwendet ein ähnliches Framework und generiert effizient und sofort genaue Kredit-Scores mit ML-Algorithmen.

- Betrugserkennung: Manifestiert sich in verschiedenen Formen und ermöglicht es Banken, Verhaltensabweichungen zu analysieren, ohne sich auf ein regelbasiertes System verlassen zu müssen, das häufig zu hohen Falsch-Positiv-Raten führt. Dies gilt auch für die Bekämpfung von Geldwäsche, da die Erkennung von Anomalien und die verbesserte Überprüfung von Namen für bessere Nuancen bei der Datenerfassung sorgen.

- Kundendienst-Chatbots mit logischem Lernmodell (LLM): Ein immer größerer Standard für Banken, da sie bei den meisten Kundenanfragen sofortige Hilfe leisten, indem sie Kundentexte in natürlicher Sprache verarbeiten. Darüber hinaus können virtuelle Assistenten in KI-gestützten Umgebungen eingesetzt werden, um danach Kontostände zu überprüfen oder Überweisungen für Kunden vorzunehmen.

- Algorithmen zur Einstellung: Ähnlich wie in anderen Branchen werden diese häufig eingesetzt, um den enormen Personalbedarf in Nischenbereichen in zahlreichen Unternehmensbereichen zu decken. Sie können auch beim Rekrutierungsprozess helfen, indem sie die Leistung von Tests oder Vorstellungsgesprächen bewerten.

- Handel und Investitionen: Wird sowohl intern als auch extern verwendet und analysiert gleichzeitig eine Vielzahl von Datenpunkten aus Nachrichtenartikeln, sozialen Medien und Finanzberichten und zieht Anlageschlussfolgerungen auf der Grundlage der maßgeschneiderten Handelsstrategie.

Die Bedeutung des EU-KI-Gesetzes für Anwendungsfälle im Bankwesen

Um die Auswirkungen des EU-Gesetzes über künstliche Intelligenz beurteilen zu können, müssen die im Gesetz vorgeschlagenen Kategorien an die Funktionen und Fähigkeiten des aktuellen KI-Portfolios angepasst werden. Abbildung 1 skizziert diese Bewertung:

Abbildung 1: Risikoniveaus des EU AI Act

Der Unterschied zwischen hohem und begrenztem Risiko hängt von der Auswirkung und dem Schweregrad ab, da ein hohes Risiko bei Missbrauch schwerwiegende ethische Risiken mit sich bringen kann, während ein begrenztes Risiko in der Regel keine schwerwiegenden Folgen hat (wie Spamfilter und die meisten Algorithmen zur Betrugserkennung).

In Bezug auf das Bankwesen zwei finanzspezifische Anwendungsfälle wurden bestätigt und im Gesetz direkt hervorgehoben werden: Modelle zur Kreditbewertung und Instrumente zur Risikobewertung (im Versicherungswesen). Beide Systeme werden aufgrund der ethischen Implikationen, die sich aus der Bestimmung des Zugangs einer Person zu finanziellen Ressourcen ergeben, als Systeme mit hohem Risiko eingestuft. Auf dieser Grundlage wird davon ausgegangen, dass die meisten Modelle zur Preisgestaltung und Einstellung von Krediten aufgrund ihrer Wechselwirkung mit dem Lebensunterhalt und potenziell ethischen Bedenken, falls in den Systemen Vorurteile auftreten, ebenfalls mit einem hohen Risiko verbunden sind.

Darüber hinaus ist bei LLMs aufgrund ihrer weit verbreiteten Verwendung und der besonderen Compliance-Anforderungen besondere Vorsicht geboten. Wie das Consumer Finance Protection Bureau der US-Regierung feststellte, über 98 Millionen Menschen interagierten mit dem Chatbot-Service einer Bank im Jahr 2022 (USReport, was 37,4% der Bevölkerung entspricht). Diese Programme basieren auf KI und sind aufgrund ihrer Komplexität und ihres Designs verschiedenen Komplexitäten und potenziellen Risiken ausgesetzt (weitere Informationen zu LLMs finden Sie in unserem letzten Blogbeitrag, Große Sprachmodelle (LLMS) in Chatbots für den Kundensupport).

Daher müssen Banken, die LLMs verwenden, die folgenden zusätzlichen Protokolle und Offenlegungen einhalten:

- „Generative Fundamentmodelle sollten Transparenz darüber gewährleisten, dass die Inhalte von einem KI-System generiert werden, nicht von Menschen.“

- „Das Grundlagenmodell so schulen und gegebenenfalls gestalten und weiterentwickeln, dass angemessene Schutzmaßnahmen gegen die Generierung von Inhalten, die gegen das Unionsrecht verstoßen, gewährleistet sind“

- „Unbeschadet der Urheberrechte der Union, der Mitgliedstaaten oder der Union eine ausreichend detaillierte Zusammenfassung der Nutzung urheberrechtlich geschützter Schulungsdaten dokumentieren und der Öffentlichkeit zugänglich machen“

LLMs werden zwar nicht sofort als High Risk eingestuft, ihre Risikobewertung sollte jedoch von einer KI-Risikomanagement-Firma wie Calvin Risk analysiert werden.

Bei Calvin hilft die Expertise unseres dynamischen Teams dabei, Unternehmen zu technischer, ethischer und regulatorischer KI-Exzellenz zu führen. Wir bieten Pakete zur Unterstützung bei der Einhaltung von Vorschriften, der internen Optimierung von Systemen, der Sicherstellung von Algorithmen ohne Vorurteile und vielem mehr. Dabei gehen wir das KI-Risikomanagement von einem einzigartigen quantitativen Ansatz aus an und bieten umsetzbare VaR- und ROI-Analysen innerhalb unserer Plattform.

Interessiert mehr zu erfahren? Wir freuen uns darauf, Ihr Unternehmen fit für die Einhaltung des EU AI Act zu machen — vereinbaren Sie noch heute eine Vorführung mit uns!

Autoren

Shelby Carter

Praktikant in der Geschäftsentwicklung

Aufrüsten KI-Risikomanagement heute!

fordern Sie eine Demo an

Abonniere unseren
monatlicher Newsletter.

Beitreten unsere
tolles Team
heute!

mailen Sie uns