Meta’s AI-tracking van werknemers gaat een nieuwe fase in: het bedrijf gaat muisbewegingen en toetsaanslagen van eigen medewerkers monitoren om kunstmatige-intelligentiesystemen te trainen. Volgens The Verge verschuift Meta van traditionele databronnen naar realtime menselijk gedrag binnen bedrijfsomgevingen. Deze stap werpt voor Europese beleidsmakers direct vragen op over
privacy, arbeidsrechten en toezicht.
Reuters berichtte hierover.
Wat doet Meta precies?
Meta verzamelt gedragsdata rechtstreeks van medewerkers als trainingsinput voor AI. Dat betekent dat het bedrijf vastlegt hoe werknemers met software omgaan, waaronder:
- Muisbewegingen en -klikken
- Typgedrag en toetsaanslagen
- Keuzes in workflows en digitale gewoonten
Dit soort gegevens staat bekend als gedragstelemetrie. Het legt niet alleen vast wat gebruikers doen, maar ook hoe ze in realtime denken en handelen. Voor AI-systemen—zeker die welke menselijk beslisgedrag willen nabootsen—is dit aanzienlijk waardevoller dan statische webcontent.
De verschuiving weerspiegelt een bredere trend in AI-ontwikkeling. Publieke internetdata raakt verzadigd, juridisch betwist en minder bruikbaar voor geavanceerde systemen. Bedrijven zoeken nu naar hoogwaardigere, contextuele en door mensen gegenereerde datastromen.
Waarom deze verschuiving ertoe doet voor Europa
De overgang van open webdata naar gedragingen op de werkvloer verandert het AI-datalandschap fundamenteel. Europese besluitvormers staan voor drie directe implicaties.
1. Werkpleksensoring wordt AI-infrastructuur Werknemersmonitoring is niet langer alleen een HR-instrument. Het wordt een kernonderdeel van AI-ontwikkelketens. Daardoor vervaagt de grens tussen productiviteitsmeting en data-extractie.
2. Toestemming onder druk Onder de Algemene Verordening Gegevensbescherming moet geldige toestemming vrijelijk worden gegeven. In de relatie werkgever-werknemer is dat lastig te waarborgen. Werknemers kunnen zich gedwongen voelen monitoring te accepteren, wat de rechtmatigheid ter discussie stelt.
3. Uitbreiding van categorieën gevoelige data Gedragsdata kan cognitieve patronen, stressniveaus en zelfs gezondheidsindicatoren onthullen. Daarmee kunnen zulke datasets in de categorie “gevoelige gegevens” onder EU-recht vallen, met zwaardere eisen tot gevolg.
Juridische spanning met EU-kaders
Meta’s aanpak kruist meerdere Europese regelgevingskaders.
De AVG vereist dataminimalisatie en doelbinding. Continue gedragstracking kan met beide principes botsen, zeker als data wordt hergebruikt voor AI-training buiten het oorspronkelijke doel.
De aanstaande AI Act voegt een extra laag toe. AI-systemen die zijn getraind op data uit werkplekmonitoring kunnen onder hoogrisicocategorieën vallen, met name als ze worden ingezet in arbeidscontexten zoals prestatiebeoordeling of besluitvorming.
Daarnaast leggen de ePrivacy-richtlijn en nationale arbeidswetten strikte regels op voor monitoring op de werkplek. Verschillende EU-lidstaten, waaronder Duitsland en Frankrijk, vereisen al instemming van de ondernemingsraad voor dergelijke praktijken.
Strategische implicaties voor beleidsmakers
Europese leiders moeten bepalen of gedragsdata een gereguleerde AI-hulpbron wordt. De zaak-Meta illustreert een structurele verschuiving die verder gaat dan één bedrijf.
Datasoevereiniteit verplaatst zich naar binnen organisaties Het AI-voordeel zal steeds meer afhangen van proprietaire, interne data in plaats van publiek beschikbare content. Dat kan grote ondernemingen met toegang tot omvangrijke personeelsbestanden bevoordelen.
Arbeid wordt een databron Medewerkers zijn niet langer alleen werknemers, maar ook datageneratoren. Dit roept vragen op over compensatie, eigendom en rechten over gedragsdata.
Reguleringslacunes ontstaan Bestaande wetten zijn niet geschreven voor AI-systemen die op continue menselijke gedragingen zijn getraind. Beleidsmakers moeten mogelijk verduidelijken:
- Of gedragsdata als gevoelige gegevens kwalificeert
- Hoe toestemming werkt in hiërarchische omgevingen
- Of werknemers economische rechten moeten hebben over data die voor AI-training wordt gebruikt
Wat gebeurt er nu?
Meta’s stap is waarschijnlijk een voorbode van bredere adoptie in de sector. Andere technologiebedrijven en leveranciers van bedrijfssoftware zullen vermoedelijk soortgelijke methoden onderzoeken om AI-prestaties te verbeteren.
Voor Europa zorgt dit voor urgentie. Het continent profileert zich als mondiale leider in ethische AI via kaders als de AVG en de AI Act. Maar handhaving en interpretatie worden nu op nieuwe manieren op de proef gesteld.
De kernvraag voor besluitvormers is helder: Moet menselijk gedrag op het werk dienen als grondstof voor kunstmatige intelligentie?
Het antwoord zal niet alleen de AI-ontwikkeling bepalen, maar ook de toekomst van werk, privacy en digitale rechten in heel Europa.