Wie controleert of bedrijven zich aan de EU AI Act houden?
Door: Christiaan van Kouwen op 19 maart 2026De EU AI Act wordt gecontroleerd door verschillende toezichthouders op nationaal en Europees niveau. In Nederland is de Autoriteit Persoonsgegevens (AP) de belangrijkste toezichthouder voor AI-systemen. Daarnaast spelen de Europese Commissie en andere nationale autoriteiten een rol bij de handhaving. Deze organisaties controleren of bedrijven zich aan de AI-regelgeving houden door middel van inspecties, audits en klachtenbehandeling.
Welke organisaties controleren of bedrijven zich aan de EU AI Act houden?
De controle op de EU AI Act gebeurt door een netwerk van toezichthouders op verschillende niveaus. In Nederland is de Autoriteit Persoonsgegevens (AP) aangewezen als hoofdtoezichthouder voor de meeste AI-systemen. De AP krijgt hiervoor extra bevoegdheden en middelen om bedrijven te controleren op naleving van de AI-wet.
Op Europees niveau speelt de Europese Commissie een belangrijke rol bij het toezicht op foundation models en AI-systemen met systemische risico’s. Voor specifieke sectoren zoals luchtvaart, automotive en medische hulpmiddelen blijven de bestaande sectorale toezichthouders verantwoordelijk.
In de bouw- en infrasector betekent dit dat je te maken krijgt met de AP voor algemene AI-toepassingen. Denk aan AI voor planning, predictive maintenance of data-analyse. Voor specifieke toepassingen kunnen andere toezichthouders relevant zijn, zoals de Inspectie Leefomgeving en Transport (ILT) voor infrastructuurprojecten.
De verschillende toezichthouders werken samen via het European Artificial Intelligence Board. Dit zorgt voor consistente handhaving in heel Europa en voorkomt dat bedrijven met internationale activiteiten in verschillende landen met verschillende regels te maken krijgen.
Hoe werkt de handhaving van de EU AI Act in de praktijk?
De handhaving van de EU AI Act gebeurt via een combinatie van proactieve controles en reactieve inspecties. Toezichthouders kunnen onaangekondigd bedrijven bezoeken, documentatie opvragen en AI-systemen testen. Ze hebben ook de bevoegdheid om klachten van burgers en concurrenten te onderzoeken.
Voor hoog-risico AI-systemen moeten bedrijven uitgebreide documentatie bijhouden. Dit omvat risicoanalyses, testresultaten en impact assessments. Toezichthouders controleren of deze documentatie compleet en accuraat is. Ze kijken ook naar de praktische implementatie: werkt het systeem zoals beschreven?
De controle gebeurt niet alleen achteraf. Bedrijven moeten bepaalde AI-systemen vooraf registreren in een Europese database. Voor foundation models gelden meldplichten aan de Europese Commissie. Dit geeft toezichthouders inzicht in welke AI-systemen er worden gebruikt.
In de praktijk betekent dit dat je als bedrijf in civiel of infra moet kunnen aantonen hoe je AI-systemen werken. Documenteer daarom goed welke data je gebruikt, hoe algoritmen beslissingen nemen en welke risico’s je hebt geïdentificeerd. Digitale transformatie vereist nu ook compliance-documentatie.
Wat gebeurt er als je bedrijf de EU AI Act overtreedt?
De boetes voor overtreding van de EU AI Act kunnen oplopen tot 7% van de wereldwijde jaaromzet of €35 miljoen, afhankelijk van welk bedrag hoger is. Dit is vergelijkbaar met de sancties onder de AVG. De hoogste boetes gelden voor het gebruik van verboden AI-systemen of het niet naleven van verplichtingen voor foundation models.
Voor minder ernstige overtredingen zijn de boetes lager, maar nog steeds substantieel. Niet-naleving van documentatieverplichtingen kan leiden tot boetes van 1,5% van de omzet of €7,5 miljoen. Het verstrekken van onjuiste informatie aan toezichthouders kost maximaal 1% van de omzet of €5 miljoen.
Naast financiële sancties kunnen toezichthouders ook operationele maatregelen opleggen. Ze kunnen AI-systemen laten stilleggen, producten uit de markt laten halen of bedrijven verbieden om bepaalde AI-toepassingen te gebruiken. Dit kan direct impact hebben op je bedrijfsvoering.
Voor kleinere overtredingen hanteren toezichthouders vaak een gefaseerde aanpak. Ze beginnen met waarschuwingen en geven bedrijven de kans om problemen op te lossen. Pas bij herhaalde overtredingen of ernstige risico’s volgen direct hoge boetes. Toch is het verstandig om vanaf het begin compliant te zijn.
Welke AI-systemen worden het strengst gecontroleerd?
Hoog-risico AI-systemen krijgen de meeste aandacht van toezichthouders. Dit zijn systemen die worden gebruikt in kritieke infrastructuur, onderwijs, werkgelegenheid, rechtspraak en veiligheidstoepassingen. In de bouw en infra vallen hieronder systemen voor verkeersbeheer, veiligheidsmonitoring en personeelsselectie.
Verboden AI-systemen staan helemaal bovenaan de controlelijst. Denk aan social scoring, emotieherkenning op de werkplek en AI die kwetsbare groepen manipuleert. Deze systemen mogen helemaal niet worden gebruikt en leiden tot de hoogste boetes bij overtreding.
Foundation models, zoals grote taalmodellen (GPT-4, Claude), krijgen ook intensief toezicht. Bedrijven die deze modellen ontwikkelen, moeten uitgebreide veiligheidsmaatregelen nemen en regelmatig rapporteren aan de Europese Commissie. Als je deze modellen gebruikt in je bedrijf, heb je minder verplichtingen, maar moet je wel weten wat je gebruikt.
| Risicocategorie | Controle-intensiteit | Belangrijkste verplichtingen |
|---|---|---|
| Verboden AI | Zeer hoog | Volledig verbod op gebruik |
| Hoog-risico | Hoog | Registratie, documentatie, testing |
| Beperkt risico | Gemiddeld | Transparantieverplichtingen |
| Minimaal risico | Laag | Vrijwillige gedragscodes |
Voor de meeste AI-toepassingen in civiele projecten en infrastructuur geldt de categorie ‘beperkt risico’. Hiervoor moet je vooral transparant zijn over het gebruik van AI. Vertel gebruikers wanneer ze interacteren met AI-systemen en zorg voor een duidelijke uitleg van hoe beslissingen tot stand komen.
Hoe STARC helpt met EU AI Act-compliance
Wij helpen bedrijven in de bouw-, civiele en infrasector om compliant te worden met de EU AI Act. Onze aanpak combineert technische expertise met praktische kennis van wet- en regelgeving. We zorgen dat je AI-implementaties niet alleen effectief zijn, maar ook voldoen aan alle wettelijke vereisten.
Onze ondersteuning bij AI-compliance omvat:
- Risicoanalyse van je huidige en geplande AI-systemen
- Documentatieondersteuning voor hoog-risico AI-toepassingen
- Procesoptimalisatie om compliance onderdeel te maken van je workflow
- Training van teams over AI Act-verplichtingen en praktische implementatie
- Doorlopende monitoring om compliant te blijven bij wijzigingen in regelgeving
We begrijpen dat compliance geen doel op zich is, maar een voorwaarde voor succesvolle digitale transformatie. Daarom integreren we AI Act-compliance in je bredere digitaliseringsstrategie. Ontdek hoe wij jouw organisatie helpen om AI veilig en compliant in te zetten, of neem contact op voor een vrijblijvend gesprek over jouw specifieke situatie.