EU AI Act: wat de nieuwe AI-wetgeving betekent voor de bouw- en infrasector
Door: STARC op 21 januari 2026
De klok tikt. Op 2 augustus 2026 gaat de EU AI Act volledig van kracht. Voor organisaties in de bouw- en infrasector is dit geen ver-van-mijn-bed-show. AI-toepassingen die je vandaag al gebruikt, van predictief onderhoud tot veiligheidsmonitoring, kunnen onder strenge regelgeving vallen. Ben jij er klaar voor?
Wat houdt de EU AI Act in?
De bouw- en infrastructuursector zet steeds vaker AI in om efficiënter, veiliger en duurzamer te werken. Denk aan algoritmes die risico’s op bouwplaatsen analyseren, systemen die verkeersstromen optimaliseren of kunstmatige intelligentie die onderhoudsbehoeften van bruggen en wegen voorspelt. Deze toepassingen bieden enorme kansen, maar brengen ook risico’s met zich mee.
De EU AI Act, de eerste brede AI-wetgeving ter wereld, reguleert deze risico’s. De wet is op 1 augustus 2024 van kracht gegaan en wordt gefaseerd ingevoerd. De belangrijkste deadline voor jouw organisatie? 2 augustus 2026. Vanaf dat moment gelden alle verplichtingen voor hoog-risico AI-systemen. Non-compliance kan leiden tot boetes tot €35 miljoen of 7% van je wereldwijde omzet (EU AI Act, 2024).
Vier risiconiveaus: waar valt jouw AI onder?
De AI Act hanteert een risicogebaseerde aanpak met vier categorieën:
1. Onaanvaardbaar risico: verboden
AI-systemen die een fundamentele bedreiging vormen voor burgers zijn vanaf februari 2025 al verboden. Denk aan real-time biometrische identificatie via CCTV op bouwplaatsen zonder expliciete wettelijke basis, of sociale credit scoring-systemen
2. Hoog risico: strenge eisen
AI-systemen die worden ingezet in kritieke infrastructuur, voor HR-beslissingen of die de veiligheid beïnvloeden, vallen hier vaak onder. Voorbeelden:
- Kritieke infrastructuur. AI die energie-, water- of verkeerssystemen beheert.
- Veiligheidsmonitoring. Algoritmen die risico’s op bouwplaatsen inschatten.
- HR & personeelsbeheer. Tools die sollicitanten screenen of productiviteit monitoren.
- Voorspellend onderhoud. AI die storingen voorspelt in bruggen, wegen of installaties.
3. Beperkt risico: transparantieplicht
AI-chatbots of tools die klanten adviseren moeten zich identificeren als AI. Gebruikers moeten weten dat ze met een systeem interageren.
4. Minimaal risico: geen verplichtingen
De meeste AI-toepassingen, zoals spamfilters of eenvoudige administratieve workflows, vallen hieronder en kennen geen specifieke eisen.
Wat betekent ‘hoog risico’ voor jouw organisatie?
Als jouw AI-systeem als hoog risico wordt geclassificeerd, gelden er strikte verplichtingen:
- Registratie in EU-database. Voordat je het systeem inzet, moet het worden geregistreerd.
- Risicomanagement. Documenteer risico’s gedurende de hele levenscyclus.
- Datakwaliteit. Zorg voor representatieve, betrouwbare datasets zonder bias.
- Menselijk toezicht. Uiteindelijke beslissingen moeten door mensen worden genomen.
- Transparantie. Stakeholders moeten begrijpen hoe het systeem werkt.
- Cybersecurity. Waarborg de veiligheid en traceerbaarheid van je systeem.
- Fundamental Rights Impact Assessment (FRIA). Deze zijn voor middelgrote en grote organisaties verplicht. Een FRIA onderzoekt welke impact een hoog-risico AI-systeem heeft op grondrechten zoals privacy, non-discriminatie en menselijke waardigheid. Het moet worden uitgevoerd vóór ingebruikname en bevat risico’s én mitigerende maatregelen.
Concrete voorbeelden uit de sector
Voorbeeld 1: Rijkswaterstaat en bewegende bruggen
Rijkswaterstaat zet AI-modellen in die voorspellen wanneer bruggen overhitten en uitzetten aan de hand van sensoren en weergegevens. Door tijdig maatregelen te nemen, blijven bewegende bruggen langer in gebruik en worden storingen voorkomen (NGinfra, 2025). Dit valt onder hoog-risico omdat het kritieke infrastructuur betreft.
Voorbeeld 2: Alliander en hoogspanningskabels
Wanneer een hoogspanningskabel uitvalt, moet een algoritme beslissen via welke kabels de elektriciteit wordt gestuurd. Alliander verkent hoe quantum- en AI-computing hierbij kunnen ondersteunen (NGinfra, 2025). Dit vraagt om robuust risicobeheer en menselijk toezicht.
Gefaseerde invoering: wat moet wanneer?
De AI Act kent een gefaseerde implementatie (Implementation Timeline EU AI Act):
- 2 februari 2025. Verbod op bepaalde AI-praktijken en AI-geletterdheidsverplichtingen. Deze regels zijn al van kracht.
- 2 augustus 2025. Er gelden regels voor General Purpose AI-modellen en governance-structuren.
- 2 augustus 2026. Volledige toepassing van hoog-risico AI-vereisten.
- 31 december 2030. De deadline voor compliance van kritieke infrastructuur-systemen die vóór 2027 zijn geïmplementeerd.
Wat moet jij nu doen?
De tijd om te wachten is voorbij. Volg deze vijf stappen:
- Inventariseer je AI-toepassingen. Breng in kaart welke AI-systemen je gebruikt of ontwikkelt. Vergeet niet de systemen die zijn ingebouwd in software van leveranciers.
- Classificeer volgens de AI Act. Bepaal per systeem of het onaanvaardbaar, hoog, beperkt of minimaal risico heeft.
- Voer een gap-analyse uit. Vergelijk je huidige praktijk met de eisen en check waar de grootste hiaten zitten.
- Ontwikkel een roadmap. Plan concrete acties met deadlines. Zorg dat je voor augustus 2026 volledig compliant bent.
- Investeer in kennis en governance. Train je teams. Stel een multidisciplinair team samen (IT, juridisch, operations, HR) dat compliance bewaakt.
Aan de slag met AI
De AI Act raakt aan de kern van wat wij doen: datagedreven werken, digitale transformatie en grip op processen. Wij helpen organisaties in de bouw- en infrasector om:
- AI-systemen te inventariseren en classificeren volgens de AI Act;
- data governance frameworks op te zetten die voldoen aan compliance-eisen;
- risico-assessments uit te voeren en te documenteren;
- monitoring en auditing in te richten voor continue compliance;
- digitale transformatie te realiseren met verantwoorde AI-oplossingen die vanaf dag één impact maken.
De deadline komt dichterbij. Maar met de juiste aanpak hoef je je geen zorgen te maken. Bouw samen met ons aan een toekomst waarin AI niet alleen slim is, maar ook veilig, transparant en betrouwbaar.
Wil je weten hoe jouw organisatie ervoor staat? Neem contact met ons op voor een vrijblijvend adviesgesprek.