Der Artificial Intelligence Act der Europäischen Union, kurz AI Act, bringt umfassende Regelungen für den Einsatz von Künstlicher Intelligenz auf den Weg. Besonders für Banken und Finanzdienstleister, die zunehmend auf KI-Technologien setzen, um Prozesse zu automatisieren, Risiken zu minimieren und bessere Entscheidungen zu treffen, stellt sich die Frage: Welche Auswirkungen hat dieser Gesetzesrahmen auf die Branche? Der AI Act fokussiert auf sichere, transparente und ethisch vertretbare KI-Anwendungen. Hier sind acht relevante Perspektiven für die Finanzbranche, die bei der Einführung und Nutzung von KI-Systemen zu beachten sind.

Die Risikoklassifizierung von KI-Systemen im Finanzsektor

Grundsätzlich werden KI-Anwendungen in vier Risikokategorien unterteilt:

  • Unzulässig
  • Hohes Risiko
  • Begrenztes Risiko
  • Minimales Risiko

Viele der KI-Lösungen am Markt, die Banken und Finanzdienstleister nutzen – etwa im Bereich der Betrugsprävention, der Kreditrisikobewertung oder bei Compliance-Prozessen – fallen in die Kategorie ‘hohes Risiko’. Diese Systeme unterliegen strengen Regulierungen. Es ist für Banken und Finanzdienstleister daher unerlässlich, die Risikoeinstufung ihrer KI-Systeme a) zu kennen. Und b) die entsprechenden Vorgaben in der Anwendung und Implementierung zu berücksichtigen.

Konformitätsbewertungen & Zertifizierungen

Für Banken, die KI einsetzen, um automatisierte Kreditentscheidungen oder Anlageempfehlungen zu generieren, bedeutet der AI Act, dass solche Anwendungen in Zukunft durch sehr strenge Konformitätsbewertungen geprüft werden müssen. Diese Zertifizierungen sollen sicher stellen, dass die Systeme fair, transparent und nicht diskriminierend arbeiten. Die Einhaltung jener Vorgaben kann zusätzliche Kosten und personelle Ressourcen erfordern, um die KI-Lösungen zu überprüfen und zu validieren. Ein nicht konformes System könnte rechtliche Konsequenzen nach sich ziehen, was für Banken ein erhebliches Risiko darstellt.

Europäische Union - der AI Act reguliert KI

Europäische Union – der AI Act reguliert KI

Transparenzanforderungen bei automatisierten Entscheidungen

Transparenz spielt im Finanzwesen eine zentrale Rolle. Insbesondere dann, wenn KI zum Einsatz kommt, um automatisierte Kreditentscheidungen zu treffen oder Kundenportfolios zu verwalten. Der AI Act der EU verpflichtet Finanzdienstleister, die Logik und Funktionsweise ihrer KI-Systeme nachvollziehbar zu machen. Das bedeutet, dass Kunden und Geschäftspartner jederzeit verstehen müssen, wie eine KI zu bestimmten Entscheidungen kommt. Das gilt für die potenzielle Ablehnung eines Kredits genauso wie für die Empfehlung einer Anlageform. Diese Transparenzanforderungen können recht komplexe technische Anpassungen erfordern. Beratung tut Not.

Grundrechte schützen, Diskriminierung vermeiden

Banken müssen sicherstellen und dies dokumentieren, dass KI-Systeme keine ‘diskriminierenden’ Entscheidungen treffen. Dies gilt insbesondere für die Bereiche Kreditwürdigkeitsprüfung, Antragsverfahren und Anlageberatung. Algorithmen, die auf historischen Daten basieren, können nämlich Verzerrungen enthalten, die bestimmte Personengruppen benachteiligen. Um den AI Act zu erfüllen, müssen Finanzinstitute Maßnahmen ergreifen, um sicherzustellen, dass ihre KI-Lösungen fair und unvoreingenommen sind. Dies kann zusätzliche Schulungen und technische Prüfungen erfordern, um mögliche Diskriminierungen frühzeitig zu erkennen und zu beseitigen.

Haftungsfragen bei fehlerhaften KI-Entscheidungen

Der AI Act bringt auch neue Haftungsregelungen mit sich. Banken und Finanzdienstleister müssen sich darauf einstellen, dass sie für Fehler in ihren KI-Systemen haftbar gemacht werden können! Dies gilt insbesondere dann, wenn sie zu finanziellen Verlusten oder anderen Schäden bei Kunden führen. Für Finanzinstitute ist es daher wichtig, klare Haftungskorridore zu definieren und ihre Versicherungen anzupassen. Nur so können sich Institute vor möglichen Klagen absichern. Ein fehlerhaft arbeitendes KI-System könnte andernfalls erhebliche wirtschaftliche und rechtliche Risiken bergen. Prozessoptimierung und Dokumentation tut Not.

Datenschutz und Datensicherheit in Verbindung mit der DSGVO

Auch spielt der Datenschutz im Bankensektor eine besonders wichtige Rolle, da häufig personenbezogene und hochsensible Daten verarbeitet werden. Der AI Act geht Hand in Hand mit der DSGVO. Das bedeutet, dass Banken sicherstellen müssen, dass ihre KI-Systeme nicht nur den Datenschutzvorgaben, sondern auch den Sicherheitsanforderungen entsprechen. Banken, die auf KI setzen, um Datenanalysen durchzuführen oder automatisierte Prozesse zu steuern, müssen Maßnahmen ergreifen, um diese Daten sicher zu verarbeiten und alle rechtlichen Vorgaben zu erfüllen.

Chancen durch Wettbewerb & Innovation in der Finanzbranche

Trotz der vermeintlich harschen, regulatorischen Hürden bietet der AI Act auch Chancen. Banken, die ihre KI-Systeme gemäß den neuen Vorschriften gestalten, können Vertrauen bei ihren Kunden aufbauen und die Wettbewerbsfähigkeit steigern. KI-Lösungen, die den hohen Anforderungen des AI Act entsprechen, könnten zu einem Qualitätsmerkmal in der Finanzbranche werden. Unternehmen, die frühzeitig in die Innovation von KI-Anwendungen investieren und diese zertifizieren lassen, können einen Marktvorteil erlangen: Besonders in wettbewerbsintensiven Bereichen wie der Vermögensverwaltung oder dem Risikomanagement liegen hier interessante Perspektiven.

Wenn KI über Kredite entscheidet - der AI Act schafft Regularien

Wenn KI über Kredite entscheidet – der AI Act schafft Regularien

Förderprogramme nutzen

Allem voran sollen kleinere Banken und Finanzdienstleister durch Förderprogramme und Beratungsangebote der EU unterstützt werden. Es geht dabei schlicht darum, dass diese Institute den Anforderungen des AI Act auf fairen Weise gegenüber finanzkräftigen Konzernen gerecht werden können. Es lohnt sich, rechtzeitig Informationen zu diesen Förderungen einzuholen, um die eigene KI-Strategie in Einklang mit den neuen Regelungen zu bringen. Mittelständischen Finanzinstituten bietet dies die Möglichkeit, die Umsetzungskosten für KI-Systeme zu minimieren und gleichzeitig Zugang zu neuen Technologien zu erhalten.

Handlungsempfehlungen für Banken & Finanzdienstleister

Die Regulierungen des EU AI Act zielen darauf ab, Vertrauen in den Einsatz von KI zu schaffen, Transparenz zu erhöhen und die Haftungsrisiken zu verringern. Gleichzeitig ermöglicht der AI Act es Unternehmen, sich durch die Einhaltung der Standards als vertrauenswürdige und zukunftsorientierte Anbieter zu positionieren. Banken sollten ihre KI-Strategie zeitnah überarbeiten und so bestmöglich sicherstellen, dass ihre Systeme den neuen Anforderungen entsprechen. Zu priorisierende Schritte im Einzelnen:

  • Risikoklassifizierung prüfen: In welche Kategorie fallen eure KI-Systeme?
  • Transparenz sicherstellen: Wie könnt ihr eure Algorithmen erklärbar gestalten?
  • Datenschutz und Datensicherheit: Sind die DSGVO-Vorgaben vollständig umgesetzt?
  • Haftungsfragen klären: Prüft eure Versicherungspolicen und Absicherungen.
  • Fördermöglichkeiten nutzen: Informiert euch über Unterstützungsangebote der EU.

Ein Fazit aus Perspektive des Hybridbankers. Der AI Act bietet für Banken und Finanzdienstleister die Möglichkeit, den Wandel hin zu KI sicher und vertrauenswürdig zu gestalten und gleichzeitig die Kundenbindung zu stärken.

Wichtige Eckdaten zum AI Act der EU:

  • Erste Ideen: Der EU AI Act wurde 2021 als Vorschlag der Europäischen Kommission vorgestellt, um den sicheren und verantwortungsvollen Einsatz von KI zu regulieren und innovative Entwicklungen zu fördern.
  • Verabschiedung: Der Entwurf wurde 2023 vom Europäischen Parlament und dem Europäischen Rat diskutiert und verabschiedet. Das Inkrafttreten hängt noch von finalen Abstimmungen und Anpassungen ab.
  • In-Kraft-Treten: Das Gesetz wird voraussichtlich 2025 in Kraft treten, wobei Unternehmen eine Übergangszeit haben, um ihre Systeme an die neuen Anforderungen anzupassen.
  • Ahndungen: Bei Verstößen gegen den AI Act können Strafen bis zu 6 % des weltweiten Jahresumsatzes des Unternehmens verhängt werden, ähnlich der DSGVO.
  • Risikoklassifizierung: Der AI Act unterscheidet zwischen KI-Systemen mit minimalem, begrenztem und hohem Risiko. Hohe Risiken, wie bei Kreditvergaben oder automatisierten Entscheidungen, unterliegen strengen Vorgaben.

Der Artikel entstand auf Basis eines Textes von Dr. Christian Szidzek, Gründer und Inhaber von Thales Datenschutz aus dem fränkischen Tauberbischofsheim.