Welke AI-toepassingen zijn verboden onder de EU AI Act?

Door: Christiaan van Kouwen op 6 maart 2026

De EU AI Act is sinds februari 2024 van kracht en stelt duidelijke grenzen aan het gebruik van kunstmatige intelligentie. Voor bedrijven in de civiele techniek en infrastructuur betekent dit dat je goed moet weten welke AI-toepassingen verboden zijn. De wet verbiedt zes specifieke categorieën AI-systemen die als te risicovol worden beschouwd. Het is belangrijk om deze regels te kennen, zodat je AI-projecten compliant blijven en je bedrijf geen boetes riskeert.

Waarom de EU AI Act belangrijk is voor jouw bedrijf

Als directeur of manager van een civiel- of infrabedrijf kom je steeds vaker AI tegen. Van projectplanning tot kwaliteitscontrole: de mogelijkheden lijken eindeloos. Maar de EU AI Act zorgt ervoor dat niet alle AI-toepassingen zomaar zijn toegestaan.

Voor bedrijven in de bouw- en civiele sector heeft deze wetgeving directe gevolgen. Je moet kunnen aantonen dat jullie AI-systemen voldoen aan de nieuwe regels. Niet-naleving kan leiden tot boetes tot 35 miljoen euro of 7% van de wereldwijde jaaromzet. Dat is een risico dat je niet wilt nemen, zeker niet in een sector waar marges al onder druk staan.

De wet is bedoeld om mensen te beschermen tegen AI-risico’s zonder innovatie tegen te houden. Voor de bouwsector betekent dit dat je AI kunt inzetten voor procesoptimalisatie, predictief onderhoud of projectmanagement, maar wel binnen duidelijke kaders. Onze diensten helpen je bij het navigeren door deze complexe regelgeving.

1: AI-systemen die mensen manipuleren of misleiden

De eerste categorie verboden AI betreft systemen die subliminale technieken gebruiken om mensen te manipuleren. Dit zijn AI-toepassingen die bewust misbruik maken van onderbewuste processen om gedrag te beïnvloeden zonder dat mensen dit doorhebben.

Denk aan AI die onzichtbare signalen in interfaces verwerkt om werknemers bepaalde keuzes te laten maken, of systemen die psychologische zwakheden uitbuiten. In de bouwsector zou dit bijvoorbeeld kunnen gaan om AI in wervingsprocessen die kandidaten manipuleert, of systemen die onderaannemers beïnvloeden bij het indienen van offertes.

Het verbod geldt ook voor AI die mensen misleidt over de aard van de interactie. Als je een chatbot gebruikt voor klantenservice, moet duidelijk zijn dat mensen met AI praten, niet met een mens. Transparantie is hier het sleutelwoord.

2: Sociale scoring-systemen door overheden

Overheden mogen geen AI-systemen gebruiken die burgers een algemene sociale score geven op basis van hun gedrag. Deze systemen evalueren mensen op verschillende aspecten van hun leven en kunnen leiden tot discriminatie of uitsluiting van diensten.

Voor de civiele sector is dit vooral relevant bij samenwerking met overheden. Je kunt niet meewerken aan projecten waarbij AI burgers beoordeelt op hun ‘maatschappelijke waarde’. Denk aan slimme stadsprojecten waarbij AI bepaalt wie toegang krijgt tot bepaalde voorzieningen.

Er zijn wel uitzonderingen voor specifieke doeleinden, zoals kredietbeoordeling of fraudedetectie, maar deze moeten voldoen aan strenge voorwaarden en mogen niet leiden tot algemene sociale uitsluiting.

3: Biometrische identificatie in openbare ruimtes

Real-time biometrische identificatie in publiek toegankelijke ruimtes is in principe verboden. Dit betekent dat AI-systemen die gezichten, vingerafdrukken of andere biometrische kenmerken herkennen niet zomaar ingezet mogen worden.

Voor bouwprojecten in de openbare ruimte heeft dit gevolgen. Je mag geen camerasystemen installeren die voorbijgangers automatisch identificeren. Ook op bouwplaatsen moet je voorzichtig zijn met biometrische toegangscontrole als die plaatsen publiek toegankelijk zijn.

Er zijn wel uitzonderingen voor rechtshandhaving, maar die zijn strikt gereguleerd. Voor commerciële doeleinden blijft het verbod gewoon van kracht. AI-implementatie vereist daarom altijd een grondige juridische check.

4: AI die kwetsbare groepen exploiteert

AI-systemen die misbruik maken van kwetsbaarheden van specifieke groepen zijn streng verboden. Dit geldt voor systemen die kinderen, ouderen, mensen met een beperking of andere kwetsbare groepen uitbuiten.

In de praktijk betekent dit dat je extra voorzichtig moet zijn bij AI-toepassingen die deze groepen raken. Denk aan slimme infrastructuur in zorgcomplexen, scholen of bejaardenterreinen. De AI mag niet profiteren van de kwetsbaarheid van deze gebruikers.

Ook bij werving en selectie moet je oppassen. AI die sollicitanten beoordeelt, mag niet discrimineren op basis van leeftijd, beperking of andere kwetsbaarheden. Het systeem moet eerlijk en transparant zijn voor iedereen.

5: Emotieherkenning op werkplekken en scholen

Het gebruik van emotieherkenning door AI op werkplekken en in onderwijsinstellingen is verboden, behalve voor specifieke medische of veiligheidsdoeleinden. Dit betekent dat je geen AI mag inzetten die de emoties van werknemers monitort.

Voor bouwbedrijven is dit relevant bij het inzetten van AI voor personeelsmanagement. Je mag geen systemen gebruiken die via camera’s of andere sensoren de stemming van werknemers bijhouden om hun prestaties te beoordelen. Dit geldt ook voor AI in kantoorgebouwen die jullie beheren.

Wel toegestaan zijn systemen voor veiligheid, bijvoorbeeld AI die stress of vermoeidheid detecteert bij kraanmachinisten om ongelukken te voorkomen. Maar dit moet altijd transparant gebeuren en met instemming van de werknemers.

6: Predictive policing gebaseerd op profiling

AI-systemen die crimineel gedrag voorspellen op basis van profiling, persoonlijkheidskenmerken of eerdere activiteiten zijn verboden. Deze systemen kunnen leiden tot discriminatie en onterechte verdenkingen.

Voor de civiele sector speelt dit vooral bij veiligheidsprojecten. Je mag geen AI ontwikkelen of implementeren die mensen als ‘risicovol’ bestempelt op basis van hun profiel. Dit geldt ook voor slimme camerasystemen die ‘verdacht gedrag’ proberen te herkennen.

Bij infrastructuurprojecten zoals stations, tunnels of bruggen moet je daarom voorzichtig zijn met AI voor beveiliging. Het systeem mag wel afwijkend gedrag detecteren, maar niet mensen vooraf categoriseren als potentiële daders.

Wat betekent dit voor AI in de bouwsector?

Het goede nieuws is dat de meeste AI-toepassingen in de bouw- en civiele sector gewoon toegestaan blijven. Denk aan AI voor projectplanning, kwaliteitscontrole, predictief onderhoud van infrastructuur of het optimaliseren van materiaalstromen. Deze systemen vallen meestal in de categorie ‘beperkt risico’ of ‘minimaal risico’.

Wel moet je bij elke AI-implementatie een compliancecheck doen. Documenteer hoe het systeem werkt, welke data het gebruikt en hoe je transparantie waarborgt. Voor AI-systemen met een hoger risico zijn er aanvullende eisen, zoals risicobeoordelingen en conformiteitsverklaringen.

Het belangrijkste is dat je een systematische aanpak hanteert. Maak een inventaris van alle AI-toepassingen in je bedrijf, beoordeel het risico per systeem en zorg voor adequate documentatie. Dit voorkomt problemen bij controles en geeft je zekerheid over jullie digitale transformatie.

Risicoclassificatie Voorbeelden bouwsector Vereisten
Verboden Emotieherkenning bij werknemers, sociale scoring Niet toegestaan
Hoog risico AI voor werving, veiligheidskritische systemen Conformiteitsbeoordeling, CE-markering
Beperkt risico Chatbots, AI-assistenten Transparantie-eisen
Minimaal risico Projectplanning, materiaaloptimalisatie Geen aanvullende eisen

Hoe STARC helpt met AI-compliance

Wij begrijpen dat de EU AI Act complex kan lijken, vooral als je al worstelt met digitale transformatie. Daarom helpen we bedrijven in de civiele techniek en infrastructuur om AI veilig en compliant in te zetten.

Onze aanpak omvat:

  • AI-compliance-audit: We inventariseren jullie huidige en geplande AI-systemen en beoordelen de risico’s.
  • Implementatiestrategie: We ontwikkelen een stapsgewijs plan voor toegestane AI-toepassingen die echt waarde toevoegen.
  • Documentatie en procedures: We zorgen voor de juiste documentatie en processen om compliance aan te tonen.
  • Training en begeleiding: We maken jullie team wegwijs in AI-wetgeving en de praktische toepassing.

Het mooie is dat we de civiele sector door en door kennen. We weten welke AI-toepassingen écht helpen bij jullie uitdagingen, zoals faalkosten, projectoverzicht en personeelstekort. Ons team combineert technische AI-kennis met praktijkervaring in GWW, spoor en infrastructuur.

Klaar om AI veilig en effectief in te zetten? Neem contact op voor een vrijblijvend gesprek over jullie mogelijkheden binnen de kaders van de EU AI Act.

Gerelateerde artikelen