Was tun, wenn man betroffen ist vom EU AI Act? In Teil III zeigen wir praxisnah, wie Unternehmen gestellte Anforderungen effizient umsetzen, Haftungsrisiken minimieren und zugleich Potenziale für Innovation und Wettbewerbsfähigkeit nutzen können. Damit schließen wir unsere Serie ab und liefern einen klaren Orientierungsrahmen für Entscheider, die KI rechtssicher und zukunftsorientiert einsetzen wollen.

Der Artikel entstand inhaltlich unter dem Mentoring von Dr. Philipp Hendel, Partner der auf Wirtschaftsrecht spezialisierten Münchner Anwalts-Sozietät drrp Rechtsanwälte PartmbB.
Dr. Philipp Hendel, Fachanwalt für Bank- & Kapitalmarktrecht

 

Mit der EU KI-Verordnung wächst nicht nur der Druck zur Einhaltung von Pflichten – sie eröffnet auch die Chance, Künstliche Intelligenz strategisch und verantwortungsvoll im Unternehmen zu nutzen. Wer Chancen nutzen will, muss Risiken verstehen – und klare interne Strukturen schaffen.

Potenziale, aber nicht ohne Preis: KI im Unternehmenseinsatz

Ob automatisierte Rechnungsverarbeitung, intelligente Kundenbetreuung oder vorausschauende Wartung – KI-Anwendungen durchdringen zunehmend alle Geschäftsbereiche. Auch kleinere und mittelgroße Unternehmen setzen zunehmend auf solche Systeme, um Prozesse zu optimieren, Ressourcen effizienter zu nutzen oder neue Produkte zu entwickeln.
Gleichzeitig bringt diese Dynamik erhebliche rechtliche, technische und strategische Risiken mit sich. Der EU AI Act fordert deshalb erstmals eine systematische Auseinandersetzung mit der Sicherheit, Fairness und Transparenz von KI-Systemen – und stellt klare Anforderungen an Unternehmen, die diese Technologien nutzen oder bereitstellen.

EU AI Act - drrp über Chancen und Risiken

EU AI Act – Chancen und Risiken

Die drei zentralen Risikoebenen

  • Rechtliche Risiken: Der Einsatz von KI kann gegen bestehende Vorschriften wie DSGVO oder Diskriminierungsverbot verstoßen – mit teils hohen Bußgeldern. Besonders risikobehaftet sind Anwendungen im Personalwesen, der Kreditvergabe oder im Gesundheitsbereich. Hier greifen die strengen Regeln für Hochrisiko-KI-Systeme.
  • Technische Risiken: Komplexe Algorithmen, unklare Datenquellen oder mangelnde Robustheit können zu fehlerhaften Entscheidungen führen. Gerade in sicherheitskritischen Bereichen (z. B. Infrastruktur, Medizin, Verkehr) besteht die Gefahr, dass Fehlfunktionen nicht nur wirtschaftliche, sondern auch reale Schäden verursachen.
  • Reputationsrisiken: Unternehmen, die intransparente oder diskriminierende KI einsetzen, verlieren Vertrauen – intern wie extern. Negative Schlagzeilen zu unfairen KI-Entscheidungen verbreiten sich schnell und können den Markenwert langfristig beschädigen.

Wer Risiken vorbeugt, nutzt und profitiert im Kontext „Chancen“

Ein klarer Vorteil von im Sinne des EU AI Acts geordneter Prozesse und Einrichtungen ist die sichere Effizienzsteigerung. Grundsätzlich gilt: KI kann repetitive Aufgaben übernehmen, Prozesse automatisieren und Entscheidungsprozesse beschleunigen – von der Buchhaltung über den Kundenservice bis zur Produktionssteuerung. Durch die Analyse großer Datenmengen können Unternehmen Trends frühzeitig erkennen und fundierter planen. Dieser Umstand führt fast zwangsläufig zu besseren, weil informierteren Entscheidungen. Stichwort Innovationskraft. KI eröffnet neue Perspektiven und mögliche Geschäftsmodelle. Dies kann etwas durch intelligente Produkte, personalisierte Dienstleistungen oder datengetriebene Services geschehen. Last not least müssen wir die immanenten Wettbewerbsvorteile sehen. Wer frühzeitig in transparente, ethisch verantwortliche KI investiert, positioniert sich als zukunftsorientiertes Unternehmen und stärkt seine Arbeitgebermarke.

Risiken zu minimieren ist Pflicht

EU AI Act – Risiken minimieren

Pflichten für Unternehmen – je nach Rolle und Risikoklasse

Der AI Act differenziert klar zwischen Anbieter, Betreiber, Importeur und Nutzer – und definiert jeweils konkrete Anforderungen. Besonders umfassend sind die Pflichten bei Hochrisiko-KI-Systemen. Dazu zählen unter anderem:

Risikomanagement: Unternehmen müssen Risiken systematisch identifizieren, bewerten und minimieren. Das gilt für technische wie ethische Risiken.

Daten-Governance: Die verwendeten Daten müssen korrekt, vollständig, repräsentativ und möglichst frei von Vorurteilen sein.

Transparenzpflichten: Nutzer müssen darüber informiert werden, dass sie mit einem KI-System interagieren. In bestimmten Fällen müssen Entscheidungsgrundlagen nachvollziehbar erklärt werden können.

Protokollierung: Alle relevanten Systemereignisse müssen dokumentiert werden, um Rückverfolgbarkeit und Nachweispflicht zu erfüllen.

Menschliche Aufsicht: KI-Entscheidungen dürfen nicht unkontrolliert laufen – Menschen müssen jederzeit eingreifen können.

Konformitätsbewertung und CE-Kennzeichnung: Für Hochrisiko-Systeme ist eine formale Bewertung und Zertifizierung Pflicht, inklusive Registrierung in einer zentralen Datenbank.

Unternehmerische To-dos – was jetzt konkret zu tun ist

Bestandsaufnahme: Welche KI-Systeme werden im Unternehmen genutzt? Welche kommen über externe Dienstleister? Welche Rollen nimmt das Unternehmen dabei ein (Anbieter, Nutzer, etc.)?

Risikoklassifizierung: Jedes System muss gemäß AI Act einer Risikoklasse zugeordnet werden. Nur so lassen sich Pflichten gezielt ableiten.

Verantwortlichkeiten: Definition, wer für die Einhaltung der Anforderungen zuständig ist. Stichworte Compliance, IT, Datenschutz, Geschäftsführung

Schulungen: Mitarbeiter müssen die Anwendung von KI verstehen und deren Dynamik, Funktionen und mögliche Auswirkungen einordnen können.

Governance-Struktur: KI braucht Regeln. Unternehmen sollten Ethikleitlinien, Freigabeprozesse und Kontrollmechanismen einführen.

Besondere Bedeutung hat KI im Bereich des Finanzwesens auch heute schon. Beispiele für KI-Anwendungen sind:

  • Algorithmisches Trading
    KI-Systeme können Markttrends und historische Daten analysieren, um Handelsentscheidungen zu treffen und Trades schneller auszuführen als Menschen.
  • Betrugserkennung und -prävention
    KI wird eingesetzt, um ungewöhnliche Transaktionsmuster zu erkennen und Betrug zu verhindern. Dies geschieht durch die Analyse von Kundenverhaltensdaten und Netzwerkanalyse.
  • Kreditwürdigkeitsprüfung
    KI-Modelle können eine Vielzahl von Daten analysieren, um die Kreditwürdigkeit von Kunden zu beurteilen und präzisere Kreditentscheidungen zu treffen.
  • Automatisierung von Prozessen
    KI kann zeitaufwändige Aufgaben wie die Verarbeitung von Spesenbelegen, Rechnungen und Kartentransaktionen automatisieren.
  • Risikomanagement
    KI hilft bei der Bewertung von Risiken im Zusammenhang mit Finanztransaktionen wie Krediten und Investitionen.
  • Stimmungsanalyse im Handel
    KI kann mit Hilfe von NLP Daten aus sozialen Medien oder Geschäftsberichten analysieren, um Markttrends vorherzusagen.
  • Portfoliomanagement
    KI-Systeme unterstützen Finanzintermediäre wie Vermögensverwalter oder Investoren bei der Entscheidungsfindung und optimieren Portfolios durch die Analyse von Marktbedingungen und Wirtschaftsindikatoren.
  • Compliance und AML/KYC-Prozesse
    KI wird eingesetzt, um Überwachungs- und Berichtsanforderungen zu automatisieren und die Einhaltung gesetzlicher Vorschriften sicherzustellen.

 

Strategie statt Schnellschuss – übernehmen Sie jetzt Verantwortung

Der AI Act zwingt Unternehmen, sich mit ihrer eigenen digitalen Infrastruktur kritisch auseinanderzusetzen. KI darf nicht eindimensional analog einer Plug-&-Play-Dynamik verstanden werden. Vielmehr braucht es eine unternehmensweite Strategie – von der Auswahl der Tools bis zur Schulung der Teams.
Wer Chancen nutzen will, muss Verantwortung übernehmen. Der EU AI Act ist kein Hemmschuh, sondern ein Hebel: für bessere, gerechtere und zukunftssichere Entscheidungen mit Künstlicher Intelligenz. Wer jetzt beginnt, die Anforderungen strukturiert umzusetzen, kann nicht nur Risiken minimieren, sondern die Potenziale von KI aktiv und verantwortungsvoll nutzen. Es ist Zeit, KI nicht nur technisch zu denken – sondern strategisch, ethisch und unternehmerisch.

Bildurheber: BiancoBlue