Artikel 50 is één van de meest praktische artikelen van de hele AI Act — en raakt vrijwel ieder bedrijf met een website, marketingafdeling of klantenservice. Het regelt vier transparantieplichten: voor chatbots, voor emotie- en biometrische detectiesystemen, voor deepfakes en voor AI-gegenereerde tekst over publieke onderwerpen.
Belangrijk: artikel 50 geldt ongeacht risiconiveau. Ook als uw AI-toepassing geen hoog-risico is, moet u aan deze transparantie-eisen voldoen.
De vier verplichtingen op een rij
1. Chatbot-disclosure
Gebruikers moeten weten dat ze met een AI praten, niet met een mens. De melding mag in tekst, geïntegreerd in de openingsboodschap van de chat ("Hallo! Ik ben een AI-assistent."). Geen aparte popup nodig — wél direct zichtbaar bij de eerste interactie.
Wel verplicht
WhatsApp-bot voor klantenservice, chatwidget op uw homepage, voice-bot voor afspraken inplannen.
Niet verplicht (evident uit context)
Een tool die expliciet "ChatGPT" of "Claude" heet en op een AI-aanbiederpagina staat — daar weet de gebruiker het al. De uitzondering is bedoeld om dubbele meldingen te voorkomen, niet als sluiproute.
2. Emotie- en biometrische categoriseringssystemen
Als uw systeem emoties detecteert of mensen biometrisch indeelt, moet u betrokkenen daarover informeren vóórdat de gegevens worden verwerkt. Let op: voor de werkvloer en het onderwijs is emotieherkenning sowieso verboden onder artikel 5; deze meldplicht geldt alleen waar het überhaupt mag.
3. Deepfakes
Synthetische beelden, audio of video die echte personen of gebeurtenissen lijken te tonen, moeten als zodanig worden gelabeld. Een zichtbare watermark of duidelijke melding ("Deze video is met AI gegenereerd") is nodig. Uitzondering: artistieke en satirische content, mits dat duidelijk uit de context blijkt.
4. AI-gegenereerde tekst over publieke onderwerpen
Tekst die geheel of grotendeels door AI is gegenereerd en gaat over zaken van algemeen belang (politiek, gezondheid, veiligheid), moet als AI-gegenereerd worden gemarkeerd. Uitzondering: als er menselijke redactionele review is met inhoudelijke verantwoordelijkheid, vervalt de plicht.
Voor bloggers en marketing: Een blog die met ChatGPT wordt opgesteld en daarna door een mens wordt geredigeerd en gepubliceerd onder eigen naam, hoeft niet als AI-tekst gelabeld. Een volledig automatisch gepubliceerde nieuwsfeed wél.
Twee technische eisen die u snel over het hoofd ziet
- Machine-leesbare markering — voor synthetische output (beeld, video, audio, tekst) moet de markering ook door machines detecteerbaar zijn. Denk aan watermerk-metadata of C2PA-credentials. Dit ligt grotendeels bij de provider van het AI-model, maar u als deployer moet wel een tool kiezen die dit ondersteunt.
- Toegankelijkheid — meldingen moeten begrijpelijk en in een passende vorm zijn voor mensen met een beperking. Een grijze tekst onder een chatbot-widget is niet voldoende.
Praktische do's en don'ts
- Do: noem in de eerste boodschap dat de chatbot AI is, in heldere taal.
- Do: markeer AI-gegenereerde afbeeldingen op uw social media met een vermelding in de caption of een watermark.
- Do: zet in uw AI-beleid wie verantwoordelijk is voor het labelen van content.
- Don't: verstop de melding in algemene voorwaarden — die telt niet als directe transparantie.
- Don't: ga ervan uit dat uw leverancier (bv. ChatGPT) dit voor u regelt — deze plicht ligt bij u als deployer.
Sancties
Niet voldoen aan artikel 50 valt in de tweede boetecategorie: tot €15 miljoen of 3% van de wereldwijde jaaromzet. In de praktijk komt handhaving meestal naar aanleiding van klachten van consumenten of concurrenten — niet uit een steekproef.
Als uw bureau via AI gepersonaliseerde advertenties maakt of stemmen kloont voor reclamespots, raakt u zowel artikel 50 (transparantie) als artikel 5 (manipulatie) en de AVG. Combineer deze drie altijd in één review — ze grijpen op elkaar in.
Voldoet uw chatbot of AI-content aan artikel 50?
De gratis ActCheck-scan signaleert transparantie-gaten in uw AI-toepassingen.
Start de gratis check