Artikel 5 AI Act: welke AI-toepassingen zijn volledig verboden?

Artikel 5 van de EU AI Act legt een absoluut verbod op een aantal AI-toepassingen — geen uitzonderingen, geen overgangsperiode. Hier leest u welke dat zijn en wat dit voor uw bedrijf betekent.

De EU AI Act werkt met een risicogebaseerd systeem: de meeste AI-toepassingen zijn toegestaan mits u aan bepaalde verplichtingen voldoet. Maar artikel 5 is anders. Dit artikel bevat een harde lijst van AI-systemen die volledig verboden zijn — ongeacht uw sector, organisatiegrootte of het doel waarvoor u ze wilt inzetten.

Het verbod geldt al vanaf 2 februari 2025 — ruim voor de algemene deadline van augustus 2026. Wie een verboden systeem gebruikt, riskeert de zwaarste boete in de wet: tot €35 miljoen of 7% van de wereldwijde jaaromzet.

De verboden AI-toepassingen onder artikel 5

1. Subliminal manipulatie

AI-systemen die via technieken buiten het bewustzijn van een persoon hun gedrag sturen op een manier die schade kan veroorzaken. Denk aan AI die onbewust angst of koopgedrag triggert via audiovisuele signalen zonder dat de gebruiker het doorheeft.

2. Misbruik van kwetsbaarheden

AI die inspeelt op de kwetsbaarheden van specifieke groepen — ouderen, kinderen, mensen met een beperking of in financiële nood — om hun gedrag te beïnvloeden op een manier die hen schaadt. Marketingtools die dit patroon volgen zijn een risico.

3. Social scoring door overheden

AI-systemen die door of namens overheidsinstanties worden ingezet om mensen te scoren op basis van hun gedrag in het dagelijks leven en op grond daarvan rechten of diensten te ontzeggen. Dit verbod geldt specifiek voor publieke instanties, niet voor private credit scoring.

4. Realtime biometrische identificatie in openbare ruimte

Systemen die in real time gezichten of andere biometrische kenmerken scannen in openbare ruimtes om personen te identificeren. Er zijn zeer beperkte uitzonderingen voor opsporingsdiensten bij ernstige misdrijven — maar die gelden niet voor private bedrijven.

5. Emotieherkenning op de werkvloer en in onderwijs

AI die de emoties van medewerkers of studenten analyseert tijdens het werk of de studie. Denk aan software die via webcam of stem detecteert of een medewerker gestrest, blij of afgeleid is. Dit is volledig verboden — ook als de werknemer toestemming geeft.

6. Biometrische categorisering op gevoelige kenmerken

AI die mensen automatisch indeelt in categorieën op basis van biometrische gegevens die gevoelige kenmerken onthullen zoals ras, politieke overtuiging, religie, seksuele geaardheid of vakbondslidmaatschap.

7. Predictive policing op basis van profiling

AI-systemen die het risico inschatten dat een individu een strafbaar feit zal plegen op basis van persoonskenmerken, sociaal gedrag of locatiepatronen — zonder concrete aanwijzingen van daadwerkelijk crimineel gedrag.

8. Ongerichte scraping van gezichtsbeelden

Het massaal verzamelen van gezichtsafbeeldingen van internet of camerabeelden om gezichtsherkenningsdatabases op te bouwen, zonder specifiek doel of toestemming van de betrokkenen.

Wat betekent dit voor uw bedrijf?

De meeste MKB-bedrijven gebruiken geen van deze systemen bewust. Maar er zijn twee situaties waar het mis kan gaan:

Let op: het verbod geldt ook voor deployers

U hoeft de verboden AI niet zelf te hebben gebouwd om in overtreding te zijn. Als u als bedrijf een systeem inzet dat in strijd is met artikel 5 — ook via een externe leverancier — bent u als deployer medeverantwoordelijk. Controleer uw leverancierscontracten en de beschrijving van wat uw tools feitelijk doen.

Wat is wél toegestaan?

Niet alles wat op het verbod lijkt, valt er ook onder. Enkele voorbeelden van wat wél mag:

Emotieherkenning voor veiligheidsdoeleinden — detectie van bewusteloosheid of nood bij het rijden (rijhulpsystemen) is geen werknemersmonitoring en valt buiten het verbod.

Biometrische authenticatie — inloggen via gezichtsherkenning op uw eigen apparaat (Face ID) is geen realtime identificatie in openbare ruimte en is toegestaan.

Private credit scoring — geautomatiseerde kredietbeoordeling door banken valt niet onder het social scoring verbod, maar is wel hoog-risico AI met eigen verplichtingen (bijlage III).

Van kracht per 2 februari 2025: Het verbod in artikel 5 is al van kracht. Anders dan de hoog-risico verplichtingen (deadline 2 augustus 2026) hoeft u hier niet tot de deadline te wachten. Als uw organisatie een van de verboden toepassingen inzet, is het nu al een overtreding.

Hoe controleert u uw eigen AI-tools?

Stap één is weten welke AI-tools uw organisatie gebruikt. Stap twee is begrijpen wat die tools feitelijk doen — niet alleen wat de marketingbrochure zegt. Vragen die u aan uw leverancier kunt stellen:

Krijgt u geen duidelijk antwoord, of staat het niet in de verwerkersovereenkomst beschreven? Dan is dat een risico dat u moet adresseren.

Weet u zeker dat u geen verboden AI gebruikt?

De gratis checker analyseert uw AI-tools en signaleert mogelijke risico's op artikel 5-overtredingen. In 10 minuten heeft u duidelijkheid.

Start de gratis check