Hoe belangrijke AI-diensten jouw data gebruiken, en wat je kunt doen

Nieuws
door Maartje
woensdag, 01 oktober 2025 om 15:00
microsoft zet vol in op zonne energie voor ai datacenters
Als je ChatGPT, Grok, Claude, Perplexity of Gemini gebruikt, stel je vragen, voer je prompts in en upload je soms bestanden of afbeeldingen. Maar wat gebeurt er daarna met die data? Digit onderzocht de privacybeleid van deze AI-platforms om te zien in hoeverre jouw input wordt gebruikt voor training van toekomstige modellen, volgens Digit.

Grok (xAI): controle én privémodus

Bij Grok — de AI-chatdienst van xAI, het bedrijf van Elon Musk — kan je instellen dat je data niet gebruikt wordt voor trainingsdoeleinden. Je vindt die optie in de app onder Settings > Data Controls of via hun website. Als je via X (Twitter) met Grok werkt, moet je ook in de X-instellingen toestemming geven om je berichten te delen. 
Grok biedt bovendien een Private Chat Mode. In die modus garandeert xAI dat je gesprekken niet gebruikt worden voor modeltraining, en verwijderde gesprekken worden meestal binnen 30 dagen gewist, tenzij er redenen zijn om ze te bewaren (bijvoorbeeld veiligheidsredenen). Voor zakelijke gebruikers gelden aparte afspraken waarin hun data meestal gescheiden blijft van trainingspijplijnen. 

ChatGPT (OpenAI): eenvoudig opt-out

OpenAI laat gebruikers kiezen of hun content mee mag doen voor trainingsdoeleinden. Via de privacyportal kun je de instelling “do not train on my content” aanzetten. Als je dat doet, gebruikt OpenAI jouw toekomstige prompts en bestanden niet meer voor modeltraining — eerdere data wordt niet per se verwijderd. 
Voor zakelijke of API-gebruikers gelden vaak aparte contractuele afspraken, waarin strengere privacybescherming kan gelden.

Claude (Anthropic): van geen gebruik naar opt-in

Claude heeft recent zijn beleid gewijzigd. Eerder gebruikte het consumentenconversaties niet standaard voor training. Sinds september 2025 is dat veranderd: gebruikers moeten nu expliciet toestemming geven (opt-in) om hun data te laten gebruiken.
De opt-in-optie staat standaard aan bij nieuwe gebruikers, maar kan uitgeschakeld worden. Let wel: als je data eenmaal gebruikt is voor training, kan het niet met terugwerkende kracht worden teruggedraaid. Anthropic bewaart geanonimiseerde data tot vijf jaar en belooft gevoelige informatie eruit te filteren. Gebruikers die de voorwaarden niet accepteren vóór een deadline kunnen hun toegang tot Claude verliezen.

Perplexity: standaard gebruik, maar opt-out mogelijk

Perplexity gebruikt standaard jouw prompts, vragen en output om zijn modellen te verbeteren. E-mails die via Gmail-integraties lopen, worden uitgesloten van training.
Als gebruiker kun je via instellingen de opt-out-modus kiezen, of een verzoek indienen om je account te verwijderen. Dergelijke verzoeken worden meestal binnen 30 dagen verwerkt. Voor zakelijke klanten gelden vaak strengere voorwaarden in aparte contracten.

Gemini (Google): gedetailleerd en complex

Omdat Gemini deel is van Google’s brede ecosysteem, is het beleid robuust maar wat ingewikkeld. Chatverzoeken, bestanden, afbeeldingen, opnames en feedback kunnen gebruikt worden voor modelverbetering.
Google geeft wel opties om dit te beperken. Zo kun je Gemini Apps Activity uitschakelen via je Google-account. Tijdelijke chats worden niet gebruikt voor training, tenzij je feedback geeft. Gegevens van gekoppelde apps, zoals Google Docs, zijn afgeschermd in de standaardinstellingen. Voor werk- of schoolaccounts gelden aparte privacyregels via het generatieve AI-beleid van Google Workspace.
loading

Loading