Artificiële intelligentie binnen jouw onderneming
Maakt jouw onderneming gebruik van artificiële intelligentie (AI), dan moet je vanaf 2 februari 2025 voldoen aan de AI-verordening van de Europese Unie.
1. AI-systemen identificeren
Enerzijds moeten werkgevers die gebruik maken van AI tegen 2 februari 2025 identificeren welke AI-systemen zij gebruiken en voor welk doel. In dit kader moeten deze werkgevers controleren wat hun rol is (gebruiker, aanbieder, importeur, distributeur) en tot welke risicocategorie het AI-systeem behoort.
De AI-systemen kunnen in de volgende categorieën geclassificeerd worden op basis van hun risico’s:
1. AI-systemen met onaanvaardbare risico’s
Deze systemen zijn in strijd met de normen en waarden van de EU en leiden tot flagrante schendingen van de grondrechten. Enkele voorbeelden zijn ‘social scoring’ (evaluatie of classificatie van personen over een bepaalde periode op basis van hun sociaal gedrag of bekende, afgeleide of voorspelde persoonlijke of persoonlijkheidskenmerken); AI-systemen om emoties van een natuurlijke persoon af te leiden op het werk en in onderwijsinstellingen.
2. AI-systemen met hoge risico’s
Deze systemen hebben een negatief effect op de veiligheid of de grondrechten. Enkele voorbeelden zijn AI-systemen voor de werving of selectie van natuurlijke personen, in het bijzonder voor het plaatsen van gerichte personeelsadvertenties, het analyseren en filteren van sollicitaties en het beoordelen van kandidaten.
3. AI-systemen met beperkte risico’s
Deze systemen hebben beperkte risico’s voor de rechten van de EU-burgers. Chatbots vallen hier bijvoorbeeld onder.
4. AI-systemen met minimale risico’s
Deze systemen vormen geen risico voor de rechten van de EU-burgers. Spamfilters vallen bijvoorbeeld onder deze categorie.
Vanaf 2 februari 2025 zijn AI-systemen met onaanvaardbare risico’s verboden.
Vanaf 2 augustus 2026 moeten bepaalde verplichtingen rond AI-systemen met hoge en beperkte risico’s gerespecteerd worden. Vanaf 2 augustus 2026 moeten werkgevers die nog geen AI-systeem met hoge risico’s gebruiken, de werknemersvertegenwoordigers en de betrokken werknemers hiervan op de hoogte stellen.
Voor AI-systemen met minimale risico’s voorziet de AI-verordening geen verplichtingen.
2. AI-kennis
Vanaf 2 februari 2025 moeten werkgevers die AI gebruiken ervoor zorgen dat hun personeel en andere personen die namens de werkgever AI-systemen exploiteren en gebruiken voldoende kennis hebben over AI. Het gaat dus niet enkel over IT-ers.
De AI-verordening bepaalt niet welke maatregelen een werkgever exact moet nemen. Dit hangt af van de technische kennis, ervaring, opleiding en vorming van de betrokken werknemers. De context waarin de AI-systemen gebruikt worden en de personen ten aanzien van wie de AI-systemen gebruikt worden, spelen ook een rol bij de te nemen maatregelen.
3. AI-beleid
Werkgevers die AI gebruiken dienen een AI-beleid op te stellen met richtlijnen over het gebruik van AI binnen de onderneming. Het AI-beleid kan binnen je onderneming best openomen worden in een policy. Hierin kan je de betrokken werknemers de nodige informatie verschaffen en bepalen welke werknemers welke AI-systemen op welke manier mogen gebruiken in het kader van hun werk voor de onderneming. Het is ook aangewezen om hier maatregelen over permanente AI-vorming in op te nemen.
Bron: Verordening (EU) 2024/1689 van het Europees Parlement en de Raad van 13 juni 2024 tot vaststelling van geharmoniseerde regels betreffende artificiële intelligentie en tot wijziging van de Verordeningen (EG) nr. 300/2008, (EU) nr. 167/2013, (EU) nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 en (EU) 2019/2144, en de Richtlijnen 2014/90/EU, (EU) 2016/797 en (EU) 2020/1828, Publicatieblad van de Europese Unie, 12 juli 2024; https://artificialintelligenceact.eu/.