Marketingbureaus en in-house marketingteams behoren tot de zwaarste AI-gebruikers in het bedrijfsleven. Tekstgeneratie, beeldgeneratie, AI-voiceovers, gepersonaliseerde advertenties, predictive lead scoring — AI raakt vrijwel elke discipline. De EU AI Act regelt geen "marketing-AI" als categorie, maar drie specifieke regels van de wet bijten hard in marketingpraktijk.
Drie regels die marketing direct raken
1. Verbod op subliminale en manipulatieve AI (artikel 5)
AI die buiten het bewustzijn van een gebruiker zijn gedrag stuurt op een schadelijke manier is verboden. Net als AI die kwetsbaarheden van groepen (kinderen, ouderen, mensen in financiële nood) misbruikt om gedrag te beïnvloeden. In de praktijk:
De grens ligt niet bij "personalisatie", maar bij manipulatie waarbij de gebruiker geen reële keuzevrijheid meer heeft.
2. Transparantieplicht voor AI-content (artikel 50)
Drie scenario's waarin u melding moet maken:
- Chatbots — bij eerste interactie helder vermelden dat het AI is.
- Deepfakes — videos of audio die echte personen of gebeurtenissen lijken te tonen, moeten zichtbaar gelabeld zijn als AI-gegenereerd. Een influencer-achtige stem-kloon zonder vermelding voldoet niet.
- Synthetische media — AI-gegenereerde beelden moeten machine-leesbaar gemarkeerd zijn (zoals C2PA-credentials). Voor reclame waar duidelijk fictieve scenes gebruikt worden zonder echt-lijkende personen, is een aparte label niet altijd nodig — maar de machine-leesbare markering wel.
Lees ook: Artikel 50 transparantieplicht uitgelegd.
3. AVG en doelbinding bij AI-personalisatie
Strikt genomen geen AI Act-regel, maar de twee wetten lopen door elkaar. Als u klantdata in een AI-tool stopt voor segmentatie, is dat een nieuwe verwerking onder de AVG. Vraag uzelf af: heeft u daar een rechtsgrond voor én is dat doel meegedeeld in uw privacyverklaring?
Wat met AI-tools die marketingbureaus dagelijks gebruiken?
Tools als ChatGPT, Midjourney, ElevenLabs, Jasper of Synthesia zijn op zichzelf niet hoog-risico. Maar uw bureau is wel deployer. Dat betekent:
- U bent verantwoordelijk voor de content die u genereert én publiceert.
- U moet kunnen aantonen dat uw medewerkers AI-geletterd zijn (artikel 4).
- U moet werken met een interne workflow voor outputreview en bronvermelding.
- U moet kunnen aantonen dat u geen door auteursrecht beschermde data ongepast hergebruikt.
1. Stem-klonen van klanten of bekende personen voor reclame — raakt artikel 50 (transparantie), portretrecht, AVG én potentieel artikel 5 als dit misleiding beïnvloedt. Vraag altijd schriftelijke toestemming en label.
2. Gepersonaliseerde campagnes voor financiële diensten richting "kwetsbare doelgroepen" — bij online lenen of gokken zit u dicht tegen het verbod uit artikel 5 aan. Hier moet de afweging stevig gedocumenteerd zijn.
Praktische do's voor marketingbureaus
- Maak een interne lijst van toegestane AI-tools (whitelist) met daarbij een DPA en gebruikersvoorwaarden-check.
- Voeg in uw AI-beleid een aparte sectie op voor klantcontent: wat mag wel/niet, hoe wordt gelabeld.
- Train tekstschrijvers en designers op herkennen van risico's (auteursrecht, deepfake-grens, kwetsbaarheidsmisbruik).
- Bouw een review-stap in workflows voor AI-content vóór publicatie, met menselijke verantwoordelijkheid.
- Update opdrachtbevestigingen aan klanten: wie is verantwoordelijk voor labeling, wie voor toestemming voor stem/beeld.
Hoe AI-Act-proof is uw marketingafdeling?
De gratis ActCheck-scan signaleert risico's specifiek voor marketingactiviteiten en geeft u een actielijst.
Start de gratis check