Steeds meer werkgevers én werknemers maken gebruik van kunstmatige intelligentie, of - in het Engels - artificial intelligence (AI). Dit varieert van het gebruik van een chatbot door een werknemer, tot het gebruik van AI bij de werving en selectie van werknemers. Dit brengt kansen met zich, maar er zijn ook uitdagingen, waaronder juridische uitdagingen. Een van de juridische uitdagingen is de AI-Verordening die op 1 augustus 2024 in werking is getreden. Deze Verordening geeft regels voor het gebruik van AI in de EU. De AI-Verordening heeft ook implicaties voor werkgevers die gebruik maken van AI. Welke implicaties dat zijn en waar werkgevers rekening mee moeten houden, bespreek ik in deze blog.
De AI-Verordening
De AI-Verordening introduceert nieuwe verplichtingen voor gebruikers en aanbieders van AI-systemen. De AI-Verordening kent een zogenoemde risicogerichte aanpak. Hoe hoger het risico voor mensen of voor de samenleving, des te strenger de regels voor het AI-systeem. Hoe hoog een risico is, hangt af van de functie en het beoogde doel van het AI-systeem. De AI-Verordening maakt onderscheid tussen AI-systemen met een onaanvaardbaar risico, AI-systemen met een hoog risico en AI-systemen met een laag of minimaal risico. Afhankelijk van het risico moeten er acties worden genomen door de aanbieders en/of gebruikers. Verboden AI-systemen moeten bijvoorbeeld uit de handel worden gehaald en AI-systemen met een hoog risico moeten voldoen aan verschillende vereisten.
De AI-Verordening treedt getrapt in werking. Per februari 2025 worden bepaalde AI-toepassingen verboden en in augustus 2026 start het toezicht op hoog-risico AI-systemen. Dit ziet er in de tijdlijn als volgt uit:
… en werkgevers
In de AI-Verordening wordt specifiek aandacht besteedt aan systemen die gebruikt worden door werkgevers, namelijk systemen die worden gebruikt op het gebied van werkgelegenheid en personeelsbeheer. Dit gaat over systemen die gebruikt worden voor:
(i) De aanwerving en selectie van personen, het screenen of filteren van sollicitaties en de evaluatie van kandidaten tijdens gesprekken of tests; en
(ii) Het nemen van besluiten over promotie en ontslag, de toewijzing van taken, evaluatie van prestaties en gedrag van personen in de arbeidsrelatie.
De AI-Verordening signaleert dat deze systemen aanzienlijke gevolgen kunnen hebben voor de toekomstige carrièrekansen en het levensonderhoud van werkenden en de rechten van werknemers en ertoe leiden dat historische patronen van discriminatie blijven bestaan. Daarom worden deze systemen in beginsel beschouwd als AI-systeem met een hoog risico. Maar, als een systeem geen significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen oplevert, dan wordt het systeem toch niet als een hoog risico systeem beschouwd. Dit is bijvoorbeeld het geval als het systeem ongestructureerde data omzet in gestructureerde data.
Van welke systemen maak jij gebruik?
Als jouw organisatie gebruik maakt van AI-tools, zoals een chatbot voor HR-vragen of een systeem dat sollicitaties screent, dan ben je een gebruiker van AI [1]. In dat geval is het voor jou als werkgever van belang om alle AI-systemen binnen jouw organisatie in kaart te brengen en te bekijken in welke risicoclassificatie deze systemen vallen.
Als je gebruik maakt van een hoog risico AI-systeem, dan moet je ervoor zorgen dat:
- Je het systeem gebruikt in overeenstemming met de gebruiksaanwijzing die door de aanbieder is opgesteld;
- Je data gebruikt die relevant en representatief is voor het doel van het AI-systeem:
- Je het systeem monitort en in de gaten houdt of het systeem nog steeds werkt zoals het hoort;
- Je klaar bent om in te grijpen en het gebruik van het AI-systeem stopt als je vermoedt dat het gebruik ervan een risico vormt voor de gezondheid, veiligheid op het werk of grondrechten van personen. Je moet dan ook de aanbieder en de Autoriteit Persoonsgegevens over dit vermoeden informeren;
- Je de logs bewaart die automatisch worden gegenereerd door het AI-systeem;
- Je voordat je het systeem in gebruik neemt de werknemersvertegenwoordigers consulteert en de werknemers die onder het AI-systeem zullen vallen hierover informeert.
- Je een Data Protection Impact Assessment uitvoert.
Scholing voor jouw werknemers
Als je als werkgever AI-systemen gebruikt, dan ben je tevens verplicht om je werknemers daarin te scholen. Je moet zorgen dat je medewerkers voldoende kennis en vaardigheden hebben op het gebied van AI. Dit betekent dat iedereen die werkt met AI-systemen moet weten hoe deze werken, wat de beperkingen zijn en hoe ze de resultaten moeten interpreteren. In de AI-Verordening wordt dat “zorgen voor AI-geletterdheid” genoemd.
Een voorbeeld waarin een werkgever moet zorgen voor AI-geletterdheid is bij een medewerker die een AI-tool gebruikt om sollicitaties te screenen. Deze medewerker moet begrijpen dat AI niet altijd objectief is en dat menselijk oordeel nog steeds belangrijk is. Dit geldt ook voor een medewerker van een gemeente die AI-systemen gebruikt om de identiteit van burgers te verifiëren. Die werknemer moet beseffen dat AI-systemen niet altijd foutloos zijn en dus niet klakkeloos de uitkomsten van het AI-systeem kan volgen, maar zelf moet blijven nadenken over de uitkomst van het systeem.
Deze scholingsplicht gaat in per februari 2025. Daarom is het raadzaam om nu al maatregelen te nemen en je hierop voor te bereiden.
Voor de toekomst
Kortom, bereid je als werkgever voor op de AI-Verordening door te inventariseren welke AI-systemen je in huis hebt, in welke risicoklasse deze AI-systemen vallen en wat je moet doen om aan de verplichtingen uit de AI-Verordening te voldoen.
Zorg daarnaast voor AI-geletterdheid bij je medewerkers; informeer ze over de AI-systemen die gebruikt worden en hoe ze daar mee om moeten gaan.
Voetnoot:
[1] Als jouw organisatie een eigen AI systeem ontwikkelt, dan word je aangemerkt als aanbieder van een AI-systeem en gelden andere en aanvullende verplichtingen.