Het AI-bedrijf
Anthropic verandert zijn omgang met gebruikersdata. Vanaf 28 september 2025 worden gesprekken en codeersessies van gebruikers standaard ingezet om hun AI-model Claude te trainen. Voorheen was dat niet zo: consumenten konden erop rekenen dat hun chats niet voor modeltraining gebruikt werden. De nieuwe regels zijn aangekondigd in een blogpost en uitgebreid besproken door
The Verge vandaag.
Opt-out verstopt in kleine schakelaar
Wie
Claude gebruikt, of dat nu de gratis, Pro of Max-versie is, inclusief Claude Code, krijgt binnenkort een pop-up te zien. Daarin staat een grote Accept-knop. Minder opvallend is een kleine, vooraf aangevinkte schakelaar waarmee je het delen van data kunt weigeren. Klik je zonder opletten op “Accept”, dan stem je automatisch in met gebruik van je data. Alleen wie de schakelaar uitzet, voorkomt dat gesprekken in de trainingsset belanden.
Gebruikers hebben tot 28 september de tijd om een bewuste keuze te maken. Doe je niets, dan val je automatisch onder de nieuwe regels.
Wat gebeurt er met je data?
Volgens Anthropic gaat het uitsluitend om nieuwe of hervatte gesprekken en codeersessies. Oude chats die je niet meer opent, blijven buiten beeld. De data kan tot vijf jaar bewaard blijven: een flinke verlenging ten opzichte van de eerdere termijn van 30 dagen.
Het doel is om Claude beter te maken: van betrouwbaardere antwoorden tot strengere veiligheidsfilters. Anthropic belooft dat gevoelige informatie automatisch wordt geanonimiseerd of gefilterd. In de eigen documentatie benadrukt het bedrijf bovendien dat er geen gebruikersdata verkocht wordt. Meer details staan op de
website van Anthropic.
Niet terug te draaien
Wie later spijt krijgt, kan zijn instellingen altijd aanpassen in het privacy-menu. Maar: data die al in de trainingsset is beland, kan niet meer worden teruggehaald. Daarmee staat Anthropic in een rijtje met andere AI-bedrijven die steeds vaker standaard gebruikersdata inzetten, tenzij iemand actief bezwaar maakt.
Kritische vragen over instemming
De stap roept vragen op. Is het wel “echte” toestemming als de opt-out nauwelijks zichtbaar is? Privacy-experts waarschuwen dat veel gebruikers gedachteloos op “Accept” zullen klikken, waardoor hun data zonder goed besef wordt gebruikt.
Wat vaststaat: wie Claude gebruikt, doet er goed aan vóór 28 september 2025 zijn instellingen na te lopen – en bewust te beslissen of je je gesprekken wilt delen met de AI die je gebruikt.