Facebook-moederbedrijf
Meta gaat in
Europa beginnen met het trainen van zijn AI-modellen op basis van openbare berichten van gebruikers. Het bedrijf bevestigt dat voortaan onder meer foto’s en comments die Europese volwassenen publiekelijk delen op Facebook en Instagram gebruikt worden om generatieve AI te verbeteren.
Gebruikers krijgen deze week meldingen en kunnen bezwaar maken tegen deze dataverzameling. De stap volgt na eerder uitstel wegens privacyzorgen en markeert een nieuwe fase in de AI-strategie van Meta.
Wat is er gebeurd?
Meta heeft aangekondigd dat het publieke content van EU-gebruikers gaat benutten voor AI-training. Concreet betreft het alle berichten die door volwassenen openbaar geplaatst zijn op Facebook of Instagram – bijvoorbeeld een foto op een openbaar Instagram-profiel of een comment onder een nieuwsartikel.
Privéberichten of afgeschermde posts blijven buiten de dataset, net als gegevens van minderjarigen. De miljoenen Europese interacties met de nieuwe Meta AI-chatbot (die onlangs in de EU is gelanceerd) worden eveneens meegenomen in de training.
Meta benadrukt dat gebruikers inspraak houden. Deze week ontvangen EU-gebruikers van Meta’s platforms een notificatie waarin de wijziging wordt uitgelegd en een link naar een
opt-out-formulier is opgenomen. Wie niet wil dat zijn openbare posts worden gebruikt, kan via dat formulier bezwaar indienen; Meta belooft alle bezwaren te honoreren. Gegevens uit WhatsApp-chats of privéaccounts worden niet gedeeld voor AI-doeleinden, aldus het bedrijf.
De chatbot-functie Meta AI is inmiddels beschikbaar in Europa na een jaar vertraging en berichten via die AI-assistent (in Messenger, Instagram of WhatsApp) worden altijd gebruikt om de AI te verbeteren.
Meta geeft aan dat deze stap noodzakelijk is om de AI-modellen “te leren van de diverse nuances en complexiteit” van Europese talen en cultuur.
Dialecten, lokaal taalgebruik en sarcasme worden als voorbeelden genoemd van elementen die beter begrepen zullen worden door training op Europese data. Vorig jaar moest Meta onder druk van Europese privacytoezichthouders de uitrol van AI-functies tijdelijk pauzeren, totdat duidelijk was dat dataverzameling op een wettige manier kon gebeuren.
Inmiddels heeft de Ierse Data Protection Commission – Meta’s hoofdprivacytoezichthouder in de EU –
groen licht gegeven, mede na een advies van de EDPB (Europese privacyraad) dat Meta’s aanpak voldoet aan de GDPR-eisen.
Waarom is dit belangrijk?
Deze ontwikkeling is belangrijk omdat het een spanningsveld tussen innovatie en privacy blootlegt. Enerzijds kan Meta met Europese trainingsdata zijn AI-modellen beter afstemmen op lokale gebruikers, wat de kwaliteit en bruikbaarheid voor miljoenen EU-burgers verhoogt. Zo zouden chatbots van Meta bijvoorbeeld beter Nederlands gaan begrijpen en Europesere context geven in antwoorden. Anderzijds roept het privacyvragen op: gebruikersdata die oorspronkelijk voor sociale interactie bedoeld was, wordt nu voor heel andere doelen ingezet. Dit raakt aan transparantie en controle over persoonlijke informatie in het AI-tijdperk.
Voor de EU benadrukt deze stap hoe belangrijk daadkrachtige regulering is. Dankzij strengere regels als de AVG (GDPR) hebben Europese gebruikers tenminste de mogelijkheid bezwaar te maken tegen dergelijke dataverzameling, iets wat bijvoorbeeld in de VS niet standaard het geval is.
Het laat zien dat Big Tech rekening moet houden met Europese privacynormen wanneer ze hun AI-ambities in Europa willen uitrollen. Tegelijk onderstreept Meta’s doorzetten dat de AI-wedloop zo competitief is dat bedrijven bereid zijn ver te gaan binnen de grenzen van wat toegestaan wordt.
Impact op beleid, bedrijven of burgers
Voor beleidmakers illustreert dit dossier de noodzaak om AI en databescherming hand in hand te laten gaan. De EU werkt al aan specifieke AI-regulering (de AI Act), maar in de tussentijd moeten bestaande privacywetten worden toegepast op AI-ontwikkelingen. De case-Meta kan dienen als precedent: andere platformen zullen hun werkwijze moeten toetsen aan Europese regels, of riskeren ingrijpen van toezichthouders.
Bedrijven in Europa merken dat AI-innovatie niet zonder meer kan worden gebaseerd op willekeurige gebruikersgegevens. Organisaties zullen duidelijke toestemming en communicatie moeten voorzien als ze data willen gebruiken voor AI-training. De stap van Meta kan ook positieve effecten hebben voor Europese bedrijven en startups: verbeterde AI-modellen (die Europese talen en gewoonten begrijpen) kunnen leiden tot betere AI-diensten, waar ook lokale bedrijven weer profijt van hebben in hun customer service of productontwikkeling. Bovendien zet Meta met de opt-out een standaard waar andere techbedrijven zich aan zullen spiegelen, wat de lat voor privacybewuste AI-ontwikkeling hoger legt.
Voor burgers is dit een wake-upcall over hun digitale voetafdruk. Content die men jaren geleden publiek plaatste, kan nu de “brandstof” worden voor geavanceerde AI-systemen. Dit besef kan zorgen voor bewuster gebruik van privacy-instellingen en een kritischere houding ten aanzien van wat men deelt. Tegelijk krijgen Europese gebruikers dankzij de bezwaarmogelijkheid ook regie: wie principieel tegen het gebruik van zijn posts is, kan dat actief aangeven. In die zin heeft de Europese burger hier meer rechten dan gebruikers elders ter wereld, wat een direct gevolg is van EU-beleid.
Internationale context en reactie
Internationaal gezien past deze stap in een bredere trend: grote AI-modellen worden overal gevoed met zoveel mogelijk data, en techreuzen als Google en OpenAI trainen hun AI’s al langer op openbare internetdata, inclusief uit Europa. Meta wijst erop dat het hiermee slechts andere spelers volgt, al claimt het “transparanter te zijn dan veel branchegenoten” in hoe het dit aanpakt.
In de Verenigde Staten is er weinig regulatoire tegenkracht – bedrijven mogen daar in principe openbare online informatie gebruiken voor AI zonder individuele toestemming. Europa kiest duidelijk voor een andere koers, door deze praktijk wel aan banden te leggen met privacywetgeving. De Europese aanpak dwingt tot meer transparantie: Meta moest een jaar wachten met zijn AI-chatbot tot toezichthouders tevreden waren, iets wat in de VS ondenkbaar was. Elon Musks platform X (voorheen Twitter) ziet zich nu eveneens geconfronteerd met Europees onderzoek vanwege vergelijkbaar datagebruik voor AI, wat aangeeft dat de EU bredere controles uitvoert op hoe sociale media AI-modellen trainen.
De reacties op Meta’s besluit zijn gemengd. Privacy-voorvechters uiten zorgen dat gebruikers nog te weinig inzicht hebben in wat er met hun data gebeurt – ondanks de opt-out blijven de meesten zich niet bewust van deze praktijken, menen zij. Ook vrezen zij dat deze data gebruikt kan worden om heel verfijnde profielen van Europese burgers te maken, of inzichten af te leiden die in verkeerde handen kunnen vallen. Tegelijk erkennen sommigen dat om mee te doen in de mondiale AI-wedloop, toegang tot diverse data cruciaal is. “Beter dat Meta Europese data gebruikt om zijn AI te trainen, dan dat onze talen genegeerd worden en AI vooral op Engels en Chinees getraind blijft,” is een weerwoord dat je hoort vanuit de techsector.
De Europese toezichthouders volgen de zaak nauwgezet. Het Ierse DPC zal blijven monitoren of Meta zich aan de gemaakte afspraken houdt. Zo niet, dan riskeert het bedrijf alsnog boetes of beperkingen. Interessant is dat Meta vorig jaar in een vergelijkbare kwestie rondom gepersonaliseerde advertenties een miljardenboete kreeg en zijn werkwijze moest aanpassen. Mogelijk gaat de EU in de toekomst nog explicieter regels opstellen voor het trainen van AI’s op gebruikersdata – bijvoorbeeld via de AI Act of aanvullende richtlijnen – zodat voor alle spelers (van big tech tot kleinere platforms) duidelijk is wat mag en niet mag.