Künstliche Intelligenz im Unternehmen: Was Sie zu Recht & Compliance wissen müssen

Künstliche Intelligenz im Unternehmen: Was Sie zu Recht & Compliance wissen müssen

,

Künst­li­che Intel­li­genz (KI) ist längst kei­ne Zukunfts­tech­no­lo­gie mehr. In immer mehr Unter­neh­men fin­den KI-gestütz­te Sys­te­me Anwen­dung – ob als Chat­bots, bei der Bewer­ber­aus­wahl oder in der Pro­duk­ti­on. Mit dem Inkraft­tre­ten der EU-KI-Ver­ord­nung (AI Act) am 1. August 2024 tre­ten erst­mals ver­bind­li­che Regeln in Kraft, die den rechts­kon­for­men Umgang mit KI regeln. Die­ser Bei­trag bie­tet einen Über­blick über die wich­tigs­ten recht­li­chen Pflich­ten, Risi­ken und Chan­cen für Unter­neh­men.

1. Der EU-KI-Act – Ziel und Reichweite

Die Ver­ord­nung (EU) 2024/1689 ver­folgt das Ziel, Ver­trau­en in KI-Sys­te­me zu schaf­fen und Risi­ken zu mini­mie­ren. Dabei ver­folgt sie einen risi­ko­ba­sier­ten Ansatz: Je grö­ßer das Risi­ko für Grund­rech­te oder Sicher­heit, des­to stren­ger die Anfor­de­run­gen.

Der AI Act gilt euro­pa­weit und extra­ter­ri­to­ri­al, das heißt: Auch außer­halb der EU ansäs­si­ge Unter­neh­men müs­sen die Regeln ein­hal­ten, wenn ihre KI-Sys­te­me in der EU genutzt wer­den. Aus­ge­nom­men sind ledig­lich Anwen­dun­gen im Mili­tär oder der rei­nen For­schung.

2. Risikoklassen: Von niedrig bis verboten

Der AI Act unter­teilt KI-Sys­te­me in vier Risi­ko­stu­fen:

Risi­ko­stu­fe Bei­spie­le Fol­gen
Ver­bo­ten Social Scoring, emo­ti­ons­er­ken­nen­de KI im öffent­li­chen Raum Nicht zuläs­sig (Art. 5 AI Act)
Hoch­ri­si­ko Bewer­ber­ma­nage­ment, Kre­dit­ver­ga­be, Medi­zin­tech­nik Stren­ge Vor­ga­ben: Risi­ko­ma­nage­ment, Doku­men­ta­ti­on
Begrenz­tes Risi­ko Chat­bots, Text­ge­ne­ra­to­ren Trans­pa­renz­pflich­ten für Nutzer*innen
Mini­ma­les Risi­ko Spam­fil­ter, KI-unter­stütz­te Sta­tis­ti­ken Kei­ne beson­de­ren Anfor­de­run­gen

Beson­ders rele­vant für Unter­neh­men sind Sys­te­me mit Hoch­ri­si­ko, etwa wenn KI bei Per­so­nal­ent­schei­dun­gen zum Ein­satz kommt. Hier gel­ten weit­rei­chen­de Anfor­de­run­gen an Trans­pa­renz, Daten­qua­li­tät, mensch­li­che Über­wa­chung und Sicher­heits­me­cha­nis­men.

3. Wer ist betroffen?

Die Ver­ord­nung rich­tet sich an eine Viel­zahl von Akteu­ren:

  • Anbie­ter (Ent­wick­ler und Her­stel­ler von KI-Sys­te­men)
  • Betrei­ber (z. B. Unter­neh­men, die KI intern ein­set­zen)
  • Impor­teu­re und Händ­ler, wenn sie KI-Sys­te­me auf dem euro­päi­schen Markt bereit­stel­len

Auch Dienst­leis­ter, die KI-Diens­te aus Dritt­län­dern bezie­hen, müs­sen prü­fen, ob die ein­ge­setz­ten Sys­te­me AI-Act-kon­form sind.

4. Zentrale Compliance-Pflichten

Für Hoch­ri­si­ko-Sys­te­me gel­ten fol­gen­de zen­tra­le Anfor­de­run­gen:

Governance & Risikomanagement

  • Ein­rich­tung eines Risi­ko­ma­nage­ment­sys­tems (Art. 9)
  • Fest­le­gung kla­rer Ver­ant­wort­lich­kei­ten
  • Regel­mä­ßi­ge Risi­ko­ana­ly­se und Aktua­li­sie­rung

Technische und organisatorische Maßnahmen

  • Sicher­stel­lung von Daten­qua­li­tät und tech­ni­scher Robust­heit
  • Ermög­li­chung mensch­li­cher Über­wa­chung („Human-in-the-Loop“)

Transparenz & Nutzerinformation

  • Kenn­zeich­nung als KI-Sys­tem
  • Ver­ständ­li­che Infor­ma­tio­nen zur Funk­ti­ons­wei­se

Dokumentation & Konformitätsbewertung

  • Tech­ni­sche Doku­men­ta­ti­on gem. Anhang IV AI Act
  • Durch­füh­rung von inter­nen oder exter­nen Audits

Schulungen & Awareness

  • Mit­ar­bei­ten­de müs­sen für KI-Risi­ken sen­si­bi­li­siert wer­den
  • Schu­lungs­pflicht für Hoch­ri­si­ko-KI

5. Sanktionen bei Verstoßen

Der AI Act sieht emp­find­li­che Sank­tio­nen vor:

  • Bis zu 35 Mio. Euro oder 7 % des welt­wei­ten Jah­res­um­sat­zes bei Nut­zung ver­bo­te­ner Sys­te­me
  • Bis zu 15 Mio. Euro oder 3 % bei Ver­sto­ßen gegen Hoch­ri­si­ko-Pflich­ten
  • Bis zu 7,5 Mio. Euro oder 1 % bei fal­schen oder irre­füh­ren­den Infor­ma­tio­nen

Die Ver­ord­nung ist damit kein Papier­ti­ger – son­dern ein Instru­ment mit rea­ler Durch­schlags­kraft.

6. Zeitplan und Übergangsfristen

Die Ver­ord­nung gilt seit dem 1. August 2024, aber vie­le Rege­lun­gen grei­fen stu­fen­wei­se:

  • Febru­ar 2025: Ver­bo­te nach Art. 5 wer­den wirk­sam
  • August 2025: GPAI-Sys­te­me (wie ChatGPT) müs­sen Kenn­zeich­nung erfül­len
  • 2026/2027: Hoch­ri­si­ko-KI-Pflich­ten gel­ten ver­bind­lich

Unter­neh­men haben also begrenz­te Zeit, ihre Sys­te­me rechts­kon­form zu gestal­ten.

7. Warum jetzt handeln?

Früh­zei­ti­ge Com­pli­ance lohnt sich dop­pelt:

  • Rechts­si­cher­heit: Unter­neh­men ver­mei­den Buß­gel­der und Repu­ta­ti­ons­schä­den
  • Wett­be­werbs­vor­teil: Wer Ver­ant­wor­tung über­nimmt, stärkt Kun­den­ver­trau­en und ESG-Rating
  • Gover­nan­ce: Kla­re Pro­zes­se för­dern Inno­va­ti­on mit Ver­ant­wor­tung

8. Fazit: Was jetzt zu tun ist

Unter­neh­men soll­ten jetzt:

  1. Regu­la­to­ry Map­ping durch­füh­ren: Wel­che KI wird ein­ge­setzt?
  2. Risi­ko­be­wer­tung und Klas­si­fi­zie­rung vor­neh­men
  3. Gover­nan­ce-Struk­tu­ren eta­blie­ren (KI-Ver­ant­wort­li­che, Pro­zes­se, Kon­trol­le)
  4. Tech­ni­sche Doku­men­ta­ti­on und Schu­lun­gen auf­set­zen
  5. Ver­trä­ge prü­fen (z. B. mit KI-Anbie­tern)

9. Quellen & weiterführende Links


Tipp: Wenn Sie Bera­tung zur Umset­zung der KI-Com­pli­ance oder zur Risi­ko­be­wer­tung benö­ti­gen, spre­chen Sie uns ger­ne an.