Dis­clai­mer: Die Inhal­te die­ses Blogs die­nen aus­schließ­lich all­ge­mei­nen Infor­ma­ti­ons­zwe­cken und stel­len kei­ne recht­li­che Bera­tung dar. Obwohl wir uns bemü­hen, aktu­el­le und rele­van­te Infor­ma­tio­nen bereit­zu­stel­len, kön­nen nicht alle mög­li­chen Ein­zel­fäl­le und spe­zi­el­len recht­li­chen Kon­stel­la­tio­nen berück­sich­tigt wer­den. Der Blog ersetzt kei­ne indi­vi­du­el­le Bera­tung durch einen qua­li­fi­zier­ten Rechts­an­walt oder Daten­schutz­ex­per­ten. Für ver­bind­li­che Aus­künf­te und indi­vi­du­el­le Lösun­gen emp­feh­len wir, pro­fes­sio­nel­len recht­li­chen Rat ein­zu­ho­len.

Schön, dass Sie auch bei unse­rem zwei­ten Teil unse­rer drei­tei­li­gen Blog­rei­he zum The­ma Künst­li­che Intel­li­genz (KI) und Daten­schutz wie­der dabei sind! In unse­rem ers­ten Bei­trag haben wir für Sie die fünf Kern­ele­men­te zusam­men­ge­fasst, die aus Daten­schutz-Sicht beim Ein­satz von KI jeden­falls immer rele­vant sind, heu­te beschäf­ti­gen wir uns mit vier Her­aus­for­de­run­gen, die ein KI-Ein­satz mit sich brin­gen kann, beson­ders dann, wenn von soge­nann­ter „Hoch­ri­si­ko-KI“ die Rede ist. Natür­lich zei­gen wir auch wie­der auf, wie Sie die­se Her­aus­for­de­run­gen meis­tern und mög­li­che Risi­ken miti­gie­ren können.

Auch heu­te wie­der vier klei­ne Spoi­ler vorweg:

  • Die­ser Bei­trag greift nur bestimm­te aus­ge­wähl­te Aspek­te auf, die einen Betrei­ber einer Hoch­ri­si­ko-KI tref­fen kön­nen – eine detail­lier­te­re Dar­stel­lung aus Sicht des AI Acts fin­den Sie in einem unse­rer nächs­ten Blog­bei­trä­ge, die sich ein­ge­hen­der mit den Anfor­de­run­gen aus dem AI Act beschäf­ti­gen!
  • Ach­tung, Dead­line: Wäh­rend ein gro­ßer Teil der Vor­schrif­ten des AI Act erst im Som­mer 2026 in Gel­tung sein wird, gel­ten die Vor­schrif­ten zur soge­nann­ten „KI-Kom­pe­tenz“ bereits ab 2. Febru­ar 2025 – und zwar für alle KI-Sys­te­me im Anwen­dungs­be­reich des AI-Act.
  • Den Anbie­ter von Hoch­ri­si­ko-KI-Sys­te­men tref­fen viel­fäl­ti­ge Pflich­ten – die­se Pflich­ten kön­nen in Aus­nah­me­fäl­len aber auch für den Betrei­ber Wir­kung ent­fal­ten, etwa, wenn die­se ein bereits in Ver­kehr gebrach­tes oder in Betrieb genom­me­nes Hoch­ri­si­ko-KI-Sys­tem mit ihrem Namen oder ihrer Han­dels­mar­ke ver­se­hen, unab­hän­gig davon, ob Ver­trä­ge im Hin­ter­grund eine ande­re Pflich­ten­auf­tei­lung regeln.
  • Wir haben die­sen Blog­bei­trag mit etli­chen zusätz­li­chen Pra­xis­tipps für eine kon­kre­te Umset­zung versehen.

In den Trend­um­fra­gen für 20251 und fer­ner herrscht weit­ge­hend Einig­keit dar­über, dass die Zukunft von HR maß­geb­lich durch den Ein­satz von KI geprägt sein wird. Auf­grund der Bestim­mun­gen des AI Acts fal­len die meis­ten KI-Sys­te­me jedoch in die Kate­go­rie der soge­nann­ten „Hoch­ri­si­ko-KI“ – wes­we­gen wir die­se in den Fokus unse­res Blog­bei­tra­ges rücken wol­len und im wei­te­ren Ver­lauf auch das Bei­spiel einer (erfun­de­nen) Recrui­ting-Platt­form ver­wen­den möch­ten. Kon­kret gehen wir in unse­rem Bei­spiel davon aus, dass neben Lebens­läu­fen, Dienst­zeug­nis­sen und ande­ren Unter­la­gen, die auto­ma­ti­siert gescre­ent wer­den, auch Ran­kings der viel­ver­spre­chends­ten Bewerber*innen auf eine bestimm­te Posi­ti­on erstellt werden.

Aber: Was ist denn nun unter dem Begriff einer „Hoch­ri­si­ko-KI“ zu ver­ste­hen und war­um ist das ein The­ma, mit dem man sich durch­aus befas­sen sollte?

Wie immer in sol­chen Fäl­len ist die Defi­ni­ti­on sehr tech­nisch und umfasst 2 Kri­te­ri­en, die kumu­la­tiv vor­lie­gen müs­sen2: Das KI-Sys­tem soll als Sicher­heits­bau­teil eines Pro­dukts, das unter die in Anhang I des AI Act genann­ten EU-Vor­schrif­ten fällt, ein­ge­setzt wer­den oder das KI-Sys­tem ist selbst ein sol­ches Pro­dukt und das KI-Sys­tem als Sicher­heits­bau­teil oder als Pro­dukt muss einer Kon­for­mi­täts­be­wer­tung durch Drit­te im Fall des Inver­kehr­brin­gens oder Inbe­trieb­neh­mens inner­halb der EU unter­zo­gen wer­den. Bei­spie­le hier­für wären Auf­zü­ge, Funk­an­la­gen oder Medizinprodukte.

Dar­über hin­aus gel­ten KI-Sys­te­me, die in Anhang III zum AI Act geführt wer­den, als hoch­ris­kant: Bei­spie­le hier­für wären etwa Sicher­heits­bau­tei­le der digi­ta­len kri­ti­schen Infra­struk­tur, aber auch Aus­wahl- und Zulas­sungs­sys­te­me zu allen Ebe­nen der all­ge­mei­nen und beruf­li­chen Bil­dung, sowie KI-Sys­te­me, die im Recrui­ting für die Ein­stel­lung oder Aus­wahl geeig­ne­ter Bewerber*innen ver­wen­det wer­den sol­len, insb. um gezielt Jobin­se­ra­te zu schal­ten, Bewer­bun­gen zu sich­ten und zu bewer­ten, oder aber auch im Bereich des Per­for­mance Manage­ments. Es gibt zwar auch hier wie­der Aus­nah­men, die ein KI-Sys­tem aus der Hoch­ri­si­ko-Ein­stu­fung her­aus­neh­men kön­nen, aller­dings gilt ein in Anhang III zum AI Act ange­führ­tes KI-Sys­tem immer als hoch­ris­kant, wenn es ein Pro­fil­ing natür­li­cher Per­so­nen vor­nimmt. Ent­spre­chend wer­den zukünf­tig vie­le HR-Anwen­dun­gen unter die Defi­ni­ti­on eines Hoch­ri­si­ko-KI-Sys­tems fallen.

Noch eine wei­te­re Anmer­kung, weil wir immer wie­der über sol­che KI-Sys­te­me stol­pern, ins­be­son­de­re jene, die aus dem US-ame­ri­ka­ni­schen Raum ihren Weg zu uns fin­den: KI-Sys­te­me, die im Rah­men von Vor­stel­lungs­ge­sprä­chen zB mit­tels Video­auf­nah­men die­ser Job Inter­views die Emo­tio­nen von Bewerber*innen ana­ly­sie­ren, um ihre Eig­nung für eine bestimm­te Stel­le zu bewer­ten, könn­ten zukünf­tig gegen Art 5 AI Act ver­sto­ßen (soge­nann­te „ver­bo­te­ne Prak­ti­ken“, die ab Febru­ar 2025 gene­rell ver­bo­ten sind).

Nach­dem wir die grund­le­gen­den Begrif­fe geklärt haben, was sind also die vier in der Ein­lei­tung ange­kün­dig­ten Her­aus­for­de­run­gen, denen Sie sich auf jeden Fall stel­len sollten?

Die ers­te Her­aus­for­de­rung: Her­stel­len von Trans­pa­renz und Anpas­sen inter­ner Prozesse

Wir haben in unse­rem ers­ten Blog­bei­trag zu den fünf Kern­ele­men­ten von Daten­schutz und KI die Wich­tig­keit von Trans­pa­renz her­aus­ge­stri­chen: Dies soll­te jeden­falls durch ent­spre­chen­de Updates Ihrer Daten­schutz­in­for­ma­ti­on / Pri­va­cy Noti­ces erfol­gen, für unser Bei­spiel einer Recrui­ting-Platt­form mit KI-Sup­port bedeu­tet dies daher auch einen not­wen­di­gen Review die­ses Dokuments.

KI und Datenschutz

Damit ist die Aktua­li­sie­rungs­ar­beit aber noch nicht getan: Es ist auch drin­gend emp­foh­len, die Bewerber*innen vor Upload ihrer Unter­la­gen und Infor­ma­tio­nen deut­lich dar­auf hin­zu­wei­sen, dass KI wäh­rend des Bewer­bungs­ver­fah­rens zum Ein­satz kom­men wird. Sie kön­nen dies durch einen deut­li­chen Hin­weis bereits auf der Start­sei­te Ihrer Bewer­bungs­platt­form machen, oder indem Sie ein Pop-Up Fens­ter schal­ten, das aktiv weg­ge­klickt wer­den muss oder indem Sie ein Over­lay akti­vie­ren – der Fan­ta­sie in Bezug auf die kon­kre­te Umset­zung sind wenig Gren­zen gesetzt, wich­tig ist nur: Der Hin­weis muss gut les­bar sein, dh kla­re und ein­fa­che Sät­ze sowie eine gut les­ba­re Schrift­grö­ße sind wich­tig – ein Aste­rix mit einem Ver­weis auf einen Fuß­no­ten­text irgend­wo auf der Sei­te in Schrift­grö­ße 8pt wird der Trans­pa­renz­ver­pflich­tung eher nichts Gutes tun.

Pra­xis­tipp 1: Auch intern soll­te Trans­pa­renz sicher­ge­stellt sein, näm­lich in Bezug auf die Nach­voll­zieh­bar­keit und Repro­du­zier­bar­keit der Ergeb­nis­se, die durch den Ein­satz von KI-Sys­te­men erzeugt wer­den: Zwar sind Anbie­ter von KI-Sys­te­men erst 2026 dazu ver­pflich­tet, Manu­als und Bedie­nungs­an­lei­tun­gen bereit zu stel­len und zudem trifft den Ver­ant­wort­li­chen eben­falls erst dann die Ver­pflich­tung, Logs des Hoch­ri­si­ko-KI-Sys­tems für zumin­dest sechs Mona­te auf­zu­be­wah­ren – um aber den Anfor­de­run­gen nach Art 15 DSGVO nach­kom­men zu kön­nen sowie um die ggf erfor­der­li­chen Risk Assess­ments durch­füh­ren zu kön­nen, emp­fiehlt es sich, den Lie­fe­ran­ten des KI-Sys­tems auch schon jetzt auf dies­be­züg­li­che Unter­la­gen anzu­spre­chen sowie sicher zu stel­len, dass Log­files ers­tens für Ihr Unter­neh­men zugäng­lich sind und zwei­tens, dass die Auf­be­wah­rungs­frist ziel­füh­rend defi­niert wird (Art 26 AI Act spricht in die­sem Zusam­men­hang von einem „min­des­tens für sechs Mona­te auf­zu­be­wah­ren“). Dar­über hin­aus soll­ten Sie sicher­stel­len, dass die Ergeb­nis­se, die Ihnen Ihr KI-Sys­tem zum Bei­spiel beim Scree­ning der Lebens­läu­fe mit anschlie­ßen­der Rang­fol­ge lie­fert, revi­si­ons­si­cher abge­spei­chert wer­den, um bei Nach­fra­gen aus­sa­ge­fä­hig zu sein, ent­we­der, weil Ihr KI-Sys­tem dies ohne­hin auto­ma­tisch kann und zB in den Logs mit spei­chert, oder weil Sie Ihr HR-Team anwei­sen, jeweils Screen­shots zu machen und die­se geson­dert abzuspeichern.

Pra­xis­tipp 2: Dar­über hin­aus sind Ihre Mitarbeiter*innen auf den kor­rek­ten Ein­satz des KI-Sys­tems zu schu­len, das geht natür­lich eben­falls am bes­ten, wenn man tat­säch­lich ver­stan­den hat, wie das KI-Sys­tem funk­tio­niert, wel­che Algo­rith­men zumin­dest in Grund­zü­gen dahin­ter lie­gen und wie Ergeb­nis­se in wel­cher Form aus wel­chen Grün­den zustan­de kom­men (mehr zum Trai­ning wei­ter unten). Eine sol­che Trans­pa­renz zahlt dann auch posi­tiv auf all­fäl­li­ge Nach­fra­gen von unter­le­ge­nen Bewerber*innen in Bezug auf die Bewer­tung ihrer Unter­la­gen ein, unter­stel­lend, dass in ihrem Fall eine mög­li­che Dis­kri­mi­nie­rung und damit ein Ver­stoß gegen das Gleich­be­hand­lungs­ge­bot vor­lie­gen könnte.

Die zwei­te Her­aus­for­de­rung: Sicher­stel­len des Vor­lie­gens einer adäqua­ten Rechtsgrundlage

Wie Sie es bereits aus unse­rem ers­ten Blog­bei­trag ken­nen, ist für jede Ver­ar­bei­tung per­so­nen­be­zo­ge­ner Daten eine Rechts­grund­la­ge, die dies erlaubt, erfor­der­lich – aber Ach­tung: Der AI Act stellt kei­ne eigen­stän­di­ge Rechts­grund­la­ge dar, außer, es wird aus­drück­lich im AI Act so angeführt.

Mit ande­ren Wor­ten: Wir müs­sen prü­fen, wel­che Alter­na­ti­ve nach Art 6 DSGVO zum Tra­gen kom­men könn­te; im Rah­men des Bewer­bungs­ver­fah­rens, und ins­be­son­de­re mit Blick auf den Ein­satz von KI-Pro­fil­ing-Tech­no­lo­gien wird typi­scher­wei­se an die Ein­ho­lung einer ent­spre­chen­den Zustim­mung der Bewerber*innen nach Art 6 Abs 1 lit a DSGVO zu den­ken sein. Eine gül­ti­ge Ein­wil­li­gung bedarf neben ande­rem einer bewuss­ten Ent­schei­dung, die auf einer kon­kre­ten Infor­ma­ti­on dar­über beruht, wie die Daten der betrof­fe­nen Per­son ver­ar­bei­tet wer­den – Sie sehen, mit einer ent­spre­chen­den Kenn­zeich­nung, wie unter Punkt 1 in die­sem Bei­trag beschrie­ben, erfül­len Sie nicht nur die Anfor­de­run­gen aus dem AI Act, son­dern unter­stüt­zen auch Ihren Ein­wil­li­gungs­pro­zess aus Datenschutz-Sicht!

Weil wir gera­de über Pro­fil­ing spre­chen: Nach Art 22 DSGVO haben natür­li­che Per­so­nen, in unse­rem Bei­spiel die Bewerber*innen, das Recht, nicht aus­schließ­lich einer auf einer auto­ma­ti­sier­ten Ver­ar­bei­tung, ein­schließ­lich Pro­fil­ing, beru­hen­den Ent­schei­dung unter­wor­fen zu wer­den, die gegen­über den Bewerber*innen eine recht­li­che Wir­kung ent­fal­tet oder sie in ähn­li­cher Wei­se beein­träch­tigt. Eine recht­li­che Ent­schei­dung wäre in unse­rem Fall zum Bei­spiel die Ent­schei­dung, ob ein*e bestimmte*r Bewerber*in im wei­te­ren Recrui­tin­g­pro­zess berück­sich­tigt wird oder eine Absa­ge erhält. Und – in der Lite­ra­tur wird, nicht zuletzt basie­rend auf den Ende letz­ten Jah­res ergan­ge­nen „SCHUFA-Ent­schei­dun­gen“ des EuGH3 die Auf­fas­sung ver­tre­ten, dass bereits eine Emp­feh­lung als Ent­schei­dung im Sin­ne des Art 22 DSGVO anzu­se­hen ist, wenn die­se Emp­feh­lung die wei­te­re Ent­schei­dung „maß­geb­lich“ beein­flusst. Über­setzt bedeu­tet dies, ein Ran­king oder sonst eine Emp­feh­lung für oder gegen Bewerber*innen, das von einem KI-Sys­tem erstellt wird, und an das sich Recruiter*innen zumeist hal­ten, gilt ent­spre­chend wohl als „auto­ma­ti­sier­te Entscheidung“.

Des Wei­te­ren ist dar­auf zu ach­ten, dass eine auto­ma­ti­sier­te Ent­schei­dungs­fin­dung, die auf der Ver­ar­bei­tung von Daten beson­de­rer Kate­go­rien (land­läu­fig als „sen­si­ble Daten“ bezeich­net, gemeint sind hier aber gesund­heits­be­zo­ge­ne Infor­ma­tio­nen, Infor­ma­tio­nen zu Reli­gi­on oder phi­lo­so­phi­schen Über­zeu­gen oder auch zur sexu­el­len Ori­en­tie­rung einer Per­son) beruht, nicht zuläs­sig ist, es ist daher dar­auf zu ach­ten, dass Ihr KI-Sys­tem kei­nes­falls auf die­se Daten zugreift, las­sen Sie sich Ent­spre­chen­des vom Anbie­ter Ihres KI-Sys­tems bestätigen!

Pra­xis­tipp 3: Für die kon­kre­te Umset­zung in Ihrem HR-Team bedeu­tet dies, dass ers­tens Bewerber*innen das Recht haben, sich nicht einer sol­chen auto­ma­ti­sier­ten Ent­schei­dungs­fin­dung unter­zie­hen zu wol­len: Wir erin­nern uns, eine Ein­wil­li­gung hat stets frei­wil­lig zu erfol­gen, Frei­wil­lig­keit ist aller­dings nur dann gege­ben, wenn es eine ech­te Wahl­mög­lich­keit gibt. Ent­spre­chend soll­ten Sie auf Ihrem Bewer­bungs­por­tal prä­sent eine Alter­na­ti­ve zum Upload der Bewer­bungs­un­ter­la­gen in Ihrem Por­tal vor­se­hen, bie­ten Sie zB eine Email­adres­se an, über die die Doku­men­te eben­falls geschickt wer­den. Das macht aller­dings natür­lich nur dann Sinn, wenn eben­falls sicher­ge­stellt ist, dass der inter­ne Upload auf die Platt­form durch Ihr HR-Team in der Fol­ge nicht erst eine auto­ma­ti­sier­te Ent­schei­dungs­fin­dung trig­gert. In dem Fall wäre dies wahr­schein­lich eine Daten­ver­ar­bei­tung ohne Rechts­grund­la­ge und damit eine Ver­let­zung wesent­li­cher Datenschutzprinzipien.

Pra­xis­tipp 4: Ach­ten Sie bei der Imple­men­tie­rung Ihres Sys­tems auch dar­auf, dass jede*r Bewerber*in das Recht hat auf ein Ein­grei­fen eines/einer mensch­li­chen Recruiters/Recruiterin hat – Sie soll­ten pro­ak­tiv auf die­ses Recht hin­wei­sen, einen Pro­zess hier­für intern vor­ab defi­nie­ren und geeig­ne­te wor­ding-Vor­schlä­ge parat haben, dies umso mehr, als jede*r Bewerber*in auch das Recht hat, seinen/ihren Stand­punkt vor­zu­tra­gen und die Ent­schei­dung anzufechten.

Für den Fall, dass Ihr Unter­neh­men über einen Betriebs­rat ver­fügt, kann es wei­ters erfor­der­lich sein, auch für eine sol­che Recrui­ting-Platt­form eine Betriebs­ver­ein­ba­rung abzu­schlie­ßen; dis­ku­tie­ren Sie die­se Fra­ge am bes­ten bereits im Vor­feld mit eine*r Arbeitsrechtexpert*in!

Die drit­te Her­aus­for­de­rung: Ver­hin­dern von Dis­kri­mi­nie­rung und Reduk­ti­on eines „uncon­scious bias“ der KI

Diskriminierung durch KI

Gera­de im HR-Bereich ist es wich­tig, nicht nur an Daten­schutz­aspek­te und IT-Sicher­heits­kri­te­ri­en zu den­ken, son­dern auch gel­ten­des Arbeits­recht nicht außer Acht zu las­sen, ins­be­son­de­re die Vor­schrif­ten zum Gleich­be­hand­lungs­ge­bot. Nach Art 10 AI Act sind Hoch­ri­si­ko-Sys­te­me so zu trai­nie­ren, dass EU-Anti-Dis­kri­mi­nie­rungs­vor­ga­ben nicht ver­letzt wer­den – dies betrifft nicht nur die Ent­wick­lung von sol­chen KI-Sys­te­men, son­dern es sind auch die Betrei­ber (also Sie als Unter­neh­men) nach Art 26 AI Act gefor­dert, sicher­zu­stel­len, soweit die Kon­trol­le der Input­da­ten bei Ihnen liegt, sicher­zu­stel­len, dass „input data (…) rele­vant and suf­fi­ci­ent­ly repre­sen­ta­ti­ve in view of the inten­ded pur­po­se of the high-risk AI sys­tem“ ist.

Pra­xis­tipp 5: Über­setzt heißt dies, dass Sie vom Anbie­ter Ihrer KI-Anwen­dung eine Doku­men­ta­ti­on zum The­ma Data Gover­nan­ce ver­lan­gen soll­ten, in der ver­ständ­lich aus­ge­führt wird, wie das frag­li­che KI-Sys­tem trai­niert wur­de, sodass kei­ne Anti-Dis­kri­mi­nie­rungs­vor­ga­ben ver­letzt wur­den. Der Anbie­ter ist hier­zu nach dem AI Act erst 2026 ver­pflich­tet, eine sol­che Doku­men­ta­ti­on pro­ak­tiv bereit zu stel­len, das Gleich­be­hand­lungs­ge­setz und ver­wand­te Mate­ri­en gel­ten in Öster­reich aber natür­lich trotz­dem, ent­spre­chend soll­ten Sie Infor­ma­tio­nen vor die­sem Hin­ter­grund jeden­falls ver­lan­gen. Eben­so soll­ten Sie sicher­stel­len, dass Sie über eine nach­voll­zieh­ba­re inter­ne Doku­men­ta­ti­on ver­fü­gen, anhand wel­cher Kri­te­ri­en und Infor­ma­tio­nen das aus­ge­wähl­te KI-Sys­tem für Ihre Zwe­cke trai­niert wur­de; legen Sie einen beson­de­ren Fokus auf mög­li­che bia­ses und ver­su­chen Sie aktiv, die­se zu ver­mei­den. Ein klas­si­sches Bei­spiel wäre, dass Sie für die Posi­ti­on eines IT Fach­ex­per­ten anony­mi­sier­te Lebens­läu­fe frü­he­rer Mit­ar­bei­ter nut­zen, die alle männ­li­chen Geschlechts waren, sodass die KI basie­rend auf die­sen Infor­ma­tio­nen lernt, dass der bes­te Bewer­ber eben­falls männ­li­chen Geschlechts sein muss und weib­li­che oder diver­se Bewerber*innen von Vorn­her­ein aus­sor­tiert. Glei­che Über­le­gun­gen kann man mit Alter oder mit dis­rup­ti­ven Lebens­läu­fen oder Aus­bil­dun­gen auf dem zwei­ten Bil­dungs­weg anstel­len. Sie sehen, es gibt Vie­les, wor­über sich Ihre HR Expert*innen im Vor­feld Gedan­ken machen sollten!

Pra­xis­tipp 5a: Dar­über hin­aus unter­stützt Sie eine sol­che Doku­men­ta­ti­on bei der für Hoch­ri­si­ko-KI-Sys­te­men wahr­schein­lich zu erstel­len­den Daten­schutz-Fol­gen­ab­schät­zung, da dort eine Dar­stel­lung der Ver­hält­nis­mä­ßig­keit und Not­wen­dig­keit der Daten­ver­ar­bei­tung erfol­gen muss.

Die vier­te Her­aus­for­de­rung: Der Auf­bau von „KI-Kom­pe­tenz“ bei Ihren Mitarbeiter*innen

Streng genom­men sam­meln sich unter die­ser Über­schrift eben­falls meh­re­re Her­aus­for­de­run­gen auf ein­mal: Zunächst die zeit­li­che Kom­po­nen­te – die Vor­schrif­ten zur KI-Kom­pe­tenz nach dem AI Act sind bereits ab dem 2. Febru­ar 2025 wirk­sam, also knapp zwei Mona­te nach Erschei­nen die­ses Blog­bei­trags. Das bedeu­tet nicht, dass bis zum 2. Febru­ar 2025 alle Mitarbeiter*innen unmit­tel­bar bereits geschult sein müs­sen- aber natür­lich besteht inso­fern Hand­lungs­be­darf, als ab 2. Febru­ar 2025 alle Mitarbeiter*innen „mit KI-Kon­takt“ geschult und hier­für ent­spre­chen­de Rah­men­be­din­gun­gen und Res­sour­cen geschaf­fen wer­den müssen.

Und dann die inhalt­li­che Kom­po­nen­te – Details dar­über, wann Mitarbeiter*innen über ein aus­rei­chen­des Maß an KI-Kom­pe­tenz ver­fü­gen, hält der AI Act nicht fest, viel­mehr wird rela­tiv gene­risch nor­miert, dass Unter­neh­men mit „bes­ten Kräf­ten sicher­zu­stel­len [haben], dass ihr Per­so­nal und ande­re Per­so­nen, die in ihrem Auf­trag mit dem Betrieb und der Nut­zung von KI‑Systemen befasst sind, über ein aus­rei­chen­des Maß an KI‑Kompetenz ver­fü­gen, wobei ihre tech­ni­schen Kennt­nis­se, ihre Erfah­rung, ihre Aus­bil­dung und Schu­lung und der Kon­text, in dem die KI‑Systeme ein­ge­setzt wer­den sol­len, sowie die Per­so­nen oder Per­so­nen­grup­pen, bei denen die KI‑Systeme ein­ge­setzt wer­den sol­len, zu berück­sich­ti­gen sind.“4

Pra­xis­tipp 6: 

  • Imple­men­tie­ren Sie eine KI-Richt­li­nie, die auch das The­ma Trai­ning und Kom­pe­tenz­er­werb zum Inhalt hat sowie Vor­ga­ben dar­über trifft, wel­che Mitarbeiter*innengruppen Ziel­grup­pe wel­cher Trai­nings sind. Die­se Richt­li­nie soll­te sinn­vol­ler­wei­se auch Vor­ga­ben dar­über ent­hal­ten, wel­che Grund­kom­pe­tenz bei den jewei­li­gen Mitarbeiter*innen vor­han­den sein muss als auch wo und in wel­cher Form Unter­stüt­zung gewähr­leis­tet wer­den kann, zB indem Sie extern Fach­ex­per­ten im Rah­men einer Art Sup­port­hot­line beiziehen.
  • Gehen Sie bei der Erstel­lung Ihres Trai­nings­plans am bes­ten modu­lar vor: Eine Grund­schu­lung mit der Erklä­rung der wesent­li­chen Basics für alle Mitarbeiter*innen sowie ver­tie­fen­de Schu­lun­gen für zB HR Mitarbeiter*innen oder IT (Sup­port) Mitarbeiter*innen. Sehen Sie wie­der­keh­ren­de Auf­fri­schungs­schu­lun­gen vor und doku­men­tie­ren Sie die ver­pflich­ten­de Teil­nah­me aller Mitarbeiter*innen. In die­sem Zusam­men­hang eine kur­ze Rand­be­mer­kung, soll­te Ihr Unter­neh­men über einen Betriebs­rat ver­fü­gen: Spre­chen Sie das Trai­nings­kon­zept bei ver­pflich­ten­der Teil­nah­me an Schu­lun­gen und Trai­nings vor­her mit dem Betriebs­rat ab und neh­men Sie es in den Kanon Ihrer ver­pflich­ten­den Schu­lungs­maß­nah­men offi­zi­ell mit auf.
  • Ver­ges­sen Sie in Ihrem Schu­lungs­kon­zept nicht auf Werkstudent*innen, Praktikant*innen, Leihmitarbeiter*innen und gene­rell exter­ne Fach­kräf­te, sofern die­se Zugriff auf KI-Anwen­dun­gen erhalten.

Es gibt jedoch zumin­dest eine gewis­se Erleich­te­rung: Ein Ver­stoß gegen die Bestim­mun­gen des Art. 4 AI Act, der sich auf das The­ma KI-Kom­pe­tenz bezieht, ist nicht direkt straf­be­wehrt. Den­noch ent­bin­det Sie dies nicht von der grund­sätz­li­chen Ver­ant­wor­tung, die siche­re Nut­zung ihrer KI-Sys­te­me sicher­zu­stel­len. Eine unsach­ge­mä­ße Nut­zung, die zu Schä­den führt, kann als Ver­let­zung der all­ge­mei­nen Sorg­falts­pflicht gewer­tet wer­den, ins­be­son­de­re wenn der Scha­den durch eine ange­mes­se­ne Schu­lung hät­te ver­mie­den wer­den können.

Bonus: Eine zusätz­li­che Dokumentationsanforderung

Im pri­va­ten Bereich trifft Unter­neh­men die Ver­pflich­tung zur Durch­füh­rung einer Grund­rech­te-Fol­gen­ab­schät­zung, wenn die­se ein Hoch­ri­si­ko-KI-Sys­tem imple­men­tiert haben und zusätz­lich öffent­li­che Diens­te erbrin­gen oder ein Hoch­ri­si­ko-KI-Sys­tem im Bereich des Cre­dit Scorings und der Über­prü­fung der Kre­dit­wür­dig­keit nut­zen (mit Aus­nah­me von Fraud Detec­tion) oder ein sol­ches Hoch­ri­si­ko-KI-Sys­tem zur Kal­ku­la­ti­on von Prei­sen und Risi­ken im Bereich der Lebens- und Gesund­heits­ver­si­che­rung nut­zen. Die Ver­pflich­tung zur Durch­füh­rung einer sol­chen Grund­rech­te-Fol­gen­ab­schät­zung wird daher die wenigs­ten KMUs tat­säch­lich typi­scher­wei­se treffen.

Aber, woher kommt Ihnen der Begriff „Fol­gen­ab­schät­zung“ viel­leicht noch bekannt vor? Rich­tig, die DSGVO ver­langt unter bestimm­ten Umstän­den die Durch­füh­rung einer Daten­schutz-Fol­gen­ab­schät­zung: Im Fall des Ein­sat­zes eines Hoch­ri­si­ko-KI-Sys­tems ist typi­scher­wei­se davon aus­zu­ge­hen, dass das Risi­ko-Thres­hold des Art 35 DSGVO erreicht wird, was eine sol­che Doku­men­ta­ti­on erfor­der­lich macht (Stich­wort: Profiling).

Dar­über hin­aus tref­fen Betrei­ber eines Hoch­ri­si­ko-KI-Sys­tems eine Viel­zahl wei­te­rer Pflich­ten, in bestimm­ten Fäl­len ist auch eine Regis­trie­rungs­pflicht ver­bun­den. Details dazu samt wei­te­ren Pra­xis­tipps wer­den wir Ihnen sehr ger­ne zur Ver­fü­gung stel­len, sobald auf EU-Ebe­ne ent­spre­chen­de Gui­dan­ces ver­füg­bar sind!

In unse­rem drit­ten und letz­ten Bei­trag zum The­ma Künst­li­che Intel­li­genz und Daten­schutz wer­den wir aus­nahms­wei­se ein klei­nes biss­chen über den Tel­ler­rand schau­en und uns dem The­ma „KI Gover­nan­ce“ wid­men – wir wer­den uns fra­gen, was die­ser schö­ne Begriff eigent­lich bedeu­tet, was das für eine kon­kre­te Umset­zung in einem KMU bedeu­tet und wor­auf man eigent­lich noch ach­ten soll­te, abseits von daten­schutz­recht­li­chen Über­le­gun­gen. Sei­en Sie gespannt!

Bettina Sterner

Gast­bei­trag von Bet­ti­na Sterner:

Bet­ti­na Ster­ner, B.A. Bet­ti­na Ster­ner ist eine erfah­re­ne Exper­tin im Daten­schutz­ma­nage­ment mit umfas­sen­der Pra­xis bei inter­na­tio­na­len Groß­un­ter­neh­men. Neben ihrer fun­dier­ten Kennt­nis des öster­rei­chi­schen Daten­schutz­rechts ist sie auch mit daten­schutz­recht­li­chen Anfor­de­run­gen in Nicht-EU-Län­dern bes­tens ver­traut. Dar­über hin­aus ver­folgt sie aktu­el­le Ent­wick­lun­gen in angren­zen­den Tech­no­lo­gie­fel­dern wie der Künst­li­chen Intel­li­genz. Ihre Exper­ti­se teilt sie regel­mä­ßig in exter­nen Vor­trä­gen und durch Fach­bei­trä­ge auf ihrem Blog.

[*] Alle gene­rier­ten Gra­fi­ken wur­den erstellt mit Micro­soft Desi­gner, designer.microsoft.com.

[1] zB HR Trends to Watch in 2025; abge­fragt am 4.12.2024.

[2] Art 6 Abs 1 AI Act.

[3] Hier ins­be­son­de­re EuGH C‑634/21.

[4] Art. 4 Abs. 1 AI Act.