Künstliche Intelligenz im Unternehmen: Was Sie zu Recht & Compliance wissen müssen

Künstliche Intelligenz im Unternehmen: Was Sie zu Recht & Compliance wissen müssen

Künstliche Intelligenz (KI) ist längst keine Zukunftstechnologie mehr. In immer mehr Unternehmen finden KI-gestützte Systeme Anwendung – ob als Chatbots, bei der Bewerberauswahl oder in der Produktion. Mit dem Inkrafttreten der EU-KI-Verordnung (AI Act) am 1. August 2024 treten erstmals verbindliche Regeln in Kraft, die den rechtskonformen Umgang mit KI regeln. Dieser Beitrag bietet einen Überblick über die wichtigsten rechtlichen Pflichten, Risiken und Chancen für Unternehmen.

1. Der EU-KI-Act – Ziel und Reichweite

Die Verordnung (EU) 2024/1689 verfolgt das Ziel, Vertrauen in KI-Systeme zu schaffen und Risiken zu minimieren. Dabei verfolgt sie einen risikobasierten Ansatz: Je größer das Risiko für Grundrechte oder Sicherheit, desto strenger die Anforderungen.

Der AI Act gilt europaweit und extraterritorial, das heißt: Auch außerhalb der EU ansässige Unternehmen müssen die Regeln einhalten, wenn ihre KI-Systeme in der EU genutzt werden. Ausgenommen sind lediglich Anwendungen im Militär oder der reinen Forschung.

2. Risikoklassen: Von niedrig bis verboten

Der AI Act unterteilt KI-Systeme in vier Risikostufen:

Risikostufe Beispiele Folgen
Verboten Social Scoring, emotionserkennende KI im öffentlichen Raum Nicht zulässig (Art. 5 AI Act)
Hochrisiko Bewerbermanagement, Kreditvergabe, Medizintechnik Strenge Vorgaben: Risikomanagement, Dokumentation
Begrenztes Risiko Chatbots, Textgeneratoren Transparenzpflichten für Nutzer*innen
Minimales Risiko Spamfilter, KI-unterstützte Statistiken Keine besonderen Anforderungen

Besonders relevant für Unternehmen sind Systeme mit Hochrisiko, etwa wenn KI bei Personalentscheidungen zum Einsatz kommt. Hier gelten weitreichende Anforderungen an Transparenz, Datenqualität, menschliche Überwachung und Sicherheitsmechanismen.

3. Wer ist betroffen?

Die Verordnung richtet sich an eine Vielzahl von Akteuren:

  • Anbieter (Entwickler und Hersteller von KI-Systemen)
  • Betreiber (z. B. Unternehmen, die KI intern einsetzen)
  • Importeure und Händler, wenn sie KI-Systeme auf dem europäischen Markt bereitstellen

Auch Dienstleister, die KI-Dienste aus Drittländern beziehen, müssen prüfen, ob die eingesetzten Systeme AI-Act-konform sind.

4. Zentrale Compliance-Pflichten

Für Hochrisiko-Systeme gelten folgende zentrale Anforderungen:

Governance & Risikomanagement

  • Einrichtung eines Risikomanagementsystems (Art. 9)
  • Festlegung klarer Verantwortlichkeiten
  • Regelmäßige Risikoanalyse und Aktualisierung

Technische und organisatorische Maßnahmen

  • Sicherstellung von Datenqualität und technischer Robustheit
  • Ermöglichung menschlicher Überwachung („Human-in-the-Loop“)

Transparenz & Nutzerinformation

  • Kennzeichnung als KI-System
  • Verständliche Informationen zur Funktionsweise

Dokumentation & Konformitätsbewertung

  • Technische Dokumentation gem. Anhang IV AI Act
  • Durchführung von internen oder externen Audits

Schulungen & Awareness

  • Mitarbeitende müssen für KI-Risiken sensibilisiert werden
  • Schulungspflicht für Hochrisiko-KI

5. Sanktionen bei Verstoßen

Der AI Act sieht empfindliche Sanktionen vor:

  • Bis zu 35 Mio. Euro oder 7 % des weltweiten Jahresumsatzes bei Nutzung verbotener Systeme
  • Bis zu 15 Mio. Euro oder 3 % bei Verstoßen gegen Hochrisiko-Pflichten
  • Bis zu 7,5 Mio. Euro oder 1 % bei falschen oder irreführenden Informationen

Die Verordnung ist damit kein Papiertiger – sondern ein Instrument mit realer Durchschlagskraft.

6. Zeitplan und Übergangsfristen

Die Verordnung gilt seit dem 1. August 2024, aber viele Regelungen greifen stufenweise:

  • Februar 2025: Verbote nach Art. 5 werden wirksam
  • August 2025: GPAI-Systeme (wie ChatGPT) müssen Kennzeichnung erfüllen
  • 2026/2027: Hochrisiko-KI-Pflichten gelten verbindlich

Unternehmen haben also begrenzte Zeit, ihre Systeme rechtskonform zu gestalten.

7. Warum jetzt handeln?

Frühzeitige Compliance lohnt sich doppelt:

  • Rechtssicherheit: Unternehmen vermeiden Bußgelder und Reputationsschäden
  • Wettbewerbsvorteil: Wer Verantwortung übernimmt, stärkt Kundenvertrauen und ESG-Rating
  • Governance: Klare Prozesse fördern Innovation mit Verantwortung

8. Fazit: Was jetzt zu tun ist

Unternehmen sollten jetzt:

  1. Regulatory Mapping durchführen: Welche KI wird eingesetzt?
  2. Risikobewertung und Klassifizierung vornehmen
  3. Governance-Strukturen etablieren (KI-Verantwortliche, Prozesse, Kontrolle)
  4. Technische Dokumentation und Schulungen aufsetzen
  5. Verträge prüfen (z. B. mit KI-Anbietern)

9. Quellen & weiterführende Links


Tipp: Wenn Sie Beratung zur Umsetzung der KI-Compliance oder zur Risikobewertung benötigen, sprechen Sie uns gerne an.