Reinier adviseert nationale en internationale bedrijven
reinier.russell@russell.nl +31 20 301 55 55Bijna alle bedrijven maken inmiddels gebruik van een of andere vorm van AI. Dat betekent dat ze te maken kunnen krijgen met de verboden en regelingen uit de Europese AI Act. Hoe zorgt u dat u voldoet aan deze regels?

AI dringt steeds verder door in de maatschappij. De gezondheidssector, het onderwijs, de juridische sector en het bedrijfsleven maken er allemaal gebruik van. De toepassingen van AI binnen deze sectoren lopen uiteen, wel hebben ze allemaal gemeen dat ze zowel voordelen als nadelen met zich meebrengen. AI zal bijdragen aan innovatie en efficiëntie binnen verschillende sectoren. Tegelijkertijd brengt het potentiële risico’s met zich mee voor de bescherming van fundamentele mensenrechten, aangezien elke toepassing van AI gepaard gaat met ethische, privacy- en veiligheidsvraagstukken.
Bedrijven dienen zich hiervan bewust te zijn. Om deze reden verplicht de EU sinds 2 februari 2025 organisaties die AI gebruiken om te zorgen voor voldoende AI-geletterdheid. Zij moeten hun personeel en anderen die AI-systemen namens hen beheren, voorzien van voldoende AI-kennis. Deze verplichting maakt deel uit van de Europese AI Act die in 2024 is aangenomen en die 2 augustus 2026 van kracht wordt. Enkele belangrijke onderdelen zijn al in werking getreden, terwijl er ook nog een regeling is die pas later van kracht wordt. Dit zal steeds worden aangegeven.
De Europese AI Act is de eerste regelgeving specifiek voor kunstmatige intelligentie. De verordening wil twee belangen waarborgen: enerzijds bescherming van mensenrechten en anderzijds maatregelen die innovatie moeten stimuleren. De wet bevat regels omtrent het ontwerp, de implementatie en het gebruik van AI-systemen binnen de EU.
De AI Act heeft invloed op het gebruik van AI binnen de Europese Unie en wereldwijd. Deze verordening geldt voor de aanbieders van AI-systemen en hun vertegenwoordigers, de importeurs en distributeurs en de bedrijven en organisaties die AI gebruiken (de gebruiksverantwoordelijken). Voor ieder van hen gelden weer verschillende regels. Wat houdt deze verordening in?
De Europese Commissie heeft gekozen voor een op risico gebaseerde benadering, waarbij de AI-systemen worden onderverdeeld naar risiconiveaus. Deze risiconiveaus bepalen aan welke vereisten het AI-systeem moet voldoen. Het systeem onderscheidt vier hoofdgroepen:
AI-systemen die een onaanvaardbaar risico vormen voor veiligheid, fundamentele rechten of EU-waarden zijn sinds 2 februari 2025 strikt verboden. Voorbeelden zijn sociale kredietscores en systemen voor gedragsmanipulatie. Deze systemen mogen niet op de markt worden gebracht. Ook biometrische identificatiesystemen vallen in principe hieronder. De AI-verordening maakt hierbij echter een uitzondering voor de gevallen waarin deze noodzakelijk worden geacht voor het functioneren van de democratische rechtsstaat. Een voorbeeld daarvan is het gebruik ervan om daders van strafbare feiten te achterhalen.
AI-systemen die, vanwege hun beoogde doel en context, aanzienlijke risico’s kunnen hebben voor de gezondheid, veiligheid of fundamentele grondrechten worden onderworpen aan strikte regelgeving. Voorbeelden zijn systemen die worden gebruikt in het onderwijs, voor selectie van personeel of door openbare diensten. Deze systemen moeten voldoen aan strenge eisen op het gebied van transparantie, verantwoording en gegevensbeheer. De regeling hiervoor treedt op 2 augustus 2027 in werking.
Voor AI-systemen die beperkte risico’s voor gebruikers en het publiek met zich meebrengen, gelden voornamelijk transparantieverplichtingen, zoals de melding aan het publiek dat het contact heeft met door AI-gegenereerde content. Dit is bijvoorbeeld verplicht voor chatbots en deepfakes.
AI-systemen die minimaal of geen risico vormen voor de veiligheid of fundamentele rechten hoeven niet te voldoen aan specifieke regelgeving volgens de AI Act. Dit zijn bijvoorbeeld spamfilters.
Afhankelijk van de risicobeoordeling gelden verschillende regels, maar de AI Act bevat ook specifieke regelgeving voor AI-modellen voor algemene doeleinden, de General Purpose AI (GPAI). Hieronder valt onder andere het bekende ChatGPT. Dergelijke AI-modellen moeten documentatie verstrekken, voldoen aan auteursrechten en samenvattingen van de trainingsdata publiceren. Modellen die een systeemrisico vormen, hebben extra verplichtingen, zoals het melden van incidenten en het waarborgen van cybersecurity. Deze regels zijn sinds 2 augustus 2025 van kracht.
Naast de specifieke verplichtingen die per categorie gelden, beveelt de Europese Commissie ook algemene waarborgen aan voor het gebruik van AI. Bedrijven moeten zich bewust zijn van de risicogroep waaronder hun AI-systeem valt en welke verplichtingen hierbij horen, zodat ze juridische en financiële risico’s kunnen vermijden. Wij zullen beknopt ingaan op de belangrijkste punten.
Bij niet-naleving van de AI-verordening kunnen sancties worden opgelegd. De hoogte daarvan is afhankelijk van zowel de risicocategorie van het AI-systeem als van de ernst van de overtreding. Op AI-praktijken die wegens onaanvaardbare risico’s expliciet verboden zijn staat een boete van maximaal 35 miljoen euro of bij bedrijven tot 7% van de wereldwijde jaaromzet. Bij overtredingen van de regels voor het gebruik van AI-systemen met een hoog risico en die voor AI-modellen voor algemene doeleinden is de boete maximaal 15 miljoen euro of bij bedrijven 3% van de wereldwijde jaaromzet. Op het verstrekken van onjuiste of misleidende informatie aan de autoriteiten staat een boete van maximaal 7,5 miljoen euro of bij bedrijven 1% van wereldwijde jaaromzet.
Om de naleving van de AI Act te waarborgen en sancties te vermijden, moeten bedrijven zorgen voor:
AI is niet alleen de verantwoordelijkheid van de IT-afdeling, maar ook vanuit HR-perspectief moeten er duidelijke regels worden gesteld. Russell Advocaten schrijft voor haar cliënten AI-policies die aan het personeelshandboek, de code of conduct of andere instructie-instrumenten kunnen worden toegevoegd.
Heeft u vragen over de nieuwe AI-regelgeving of wilt u juridische valkuilen vermijden? Wij zijn u graag van dienst, ook bij andere vragen over IT/ICT en recht. Neem contact met ons op:
De Tweede Kamer heeft op 16 december 2025 de Wet digitale algemene vergadering privaatrechtelijke rechtspersonen aangenomen. Deze wet maakt het mogelijk om algemene vergaderingen volledig digitaal te houden. Wat betekent dit voor bestuurders en aandeelhouders van bv’s, nv’s en andere rechtspersonen?
Per 1 januari 2026 wijzigt de Wet ter voorkoming van witwassen en financieren van terrorisme (“Wwft”). Dan worden contante betalingen van EUR 3.000 of meer verboden. Wat betekent dit voor de retailsector en de kunsthandel?
Oproepcontracten hebben zowel voor werkgevers als voor de oproepkrachten veel voordelen. Toch zijn er ook enkele regels waar zij rekening mee moeten houden. Welke zijn dat?
Een werknemer die dronken op het werk komt of die vanwege een alcoholverslaving geregeld niet op het werk verschijnt, kunt u niet zomaar ontslaan. Een verslaving is namelijk een ziekte, zodat een opzegverbod geldt. Waar moet de werkgever bij ontslag van een dronken werknemer op letten?
De Wet transparantie en tegengaan ondermijning door maatschappelijke organisaties (Wtmo) legt enkele nieuwe verplichtingen op aan goede doelen. Welke zijn dit? Welke maatregelen moeten non-profits daarom nemen?
Op 24 november 2025 was het Equal Pay Day: de dag in het jaar waarop mannen gemiddeld net zoveel hebben verdiend als vrouwen in een heel jaar. Hoe kan de Europese richtlijn loontransparantie er voor zorgen dat mannen en vrouwen wel gelijk beloond worden?