Drie dingen die je in de tweede helft van 2025 moet doen
1. Map je stack tegen Annex III, voordat je iets anders doet
Annex III is de lijst die bepaalt wat als risicovolle AI geldt. Die dekt acht domeinen: werk en personeelsmanagement, toegang tot krediet, onderwijs, essentiële privé- en overheiddiensten, rechtshandhaving, migratie en grenscontrole, justitie en kritieke infrastructuur.
Je eerste taak is niet de hele wet doorlezen. Het is om samen met wie je AI-systemen aanstuurt aan tafel te gaan en die lijst door te nemen. Wees specifiek. "We gebruiken een AI-ondersteunde ATS" is niet genoeg. Welke beslissingen beïnvloedt het? Rankt, scoort of filtert het kandidaten zonder dat een mens de onderliggende logica controleert? Die vraag telt.
Voor Nederlandse MKB-bedrijven liggen de meeste risicopunten bij recruitmenttools (ATS-platforms, performancescoring), krediet- of verzekeringssystemen en klantsegmentatie in financiële producten. Begin daar. Een eenpager die elk systeem aan Annex III-categoriëen koppelt is een nuttige output. Het hoeft geen juridisch document te zijn. Het moet wel kloppen.
Het addertje onder het gras hier zijn third-party tools. Als je een out-of-the-box SaaS-product gebruikt dat de scoring of ranking doet, ben je nog steeds in scope als degene die het inzet. De compliance van de leverancier wordt niet automatisch de jouwe.
2. Conformiteitsverklaringen, technische documentatie en CE-markering voor risicovolle systemen
Zodra je weet welke systemen in scope vallen, eist de wet drie concrete dingen voordat je iets inzet:
Conformiteitsverklaring. Voor de meeste risicovolle systemen buiten een handvol kritieke sectoren kun je zelf beoordelen. Dat wil zeggen: een gestructureerd proces doorlopen om te verifiëren dat je systeem aan de eisen van de wet voldoet op het gebied van transparantie, datagovernance, nauwkeurigheid en menselijk toezicht. Het is niet simpelweg een afvinkje. Het kost tijd en interne coördinatie.
Technische documentatie. De wet geeft aan wat hier in moet staan: het beoogde gebruik van het systeem, de prestatiekentallen ervan, de trainingsgegevens die gebruikt zijn, bekende beperkingen en hoe menselijk toezicht is geïmplementeerd. Deze documentatie moet onderhouden en up-to-date gehouden worden. Als het systeem verandert, verandert de documentatie mee.
CE-markering. Risicovolle AI-systemen die op de EU-markt geplaatst worden hebben CE-markering nodig om conformiteit aan te tonen. Voor zelfgeëvalueerde systemen stel je een conformiteitsverklaring op en breng je de markering aan. Voor systemen in bepaalde gevoelige categorieën moet een aangestelde instantie betrokken zijn.
Het addertje. Documentatie die pas achteraf, vlak voor inspectie, opgesteld wordt ziet elke beoordelaar en is zwak in elk conflict. Schrijf het terwijl je bouwt of instelt, niet daarna.
3. Wijs een governance-persoon aan, niet een compliance-formulier
Hier gaan de meeste bedrijven het mis. Ze stellen een beleidsdocument op, slaan het ergens op en noemen het governance. Dat is geen governance. Dat is papierwerk.
De EU AI Act verwacht voortdurend menselijk toezicht op risicovolle systemen. Dat betekent dat iemand in je organisatie benoemde verantwoordelijkheid draagt om systeemgedrag te volgen, beslissingen die individuen raken te herzien, afwijkingen op te merken en alarm te slaan als iets mis lijkt te gaan. Bij een groot bedrijf kan dat een dedicated AI-officer zijn. Bij een Nederlands MKB of klein productteam is het eerder een bestaande rol met een gedefinieerde uitbreiding van scope.
Wat telt is dat de verantwoordelijkheid echt is, de persoon weet dat hij of zij die draagt, en er is een proces voor wat er gebeurt als iets ontspoor raakt. Een formulier doet dat niet. Een persoon met een mandaat wel.
Het addertje. maak dit niet puur een juridische of compliance-functie. De persoon die begrijpt hoe het systeem werkt moet erbij betrokken zijn. Dat is vaak een product manager of data lead, geen jurist.