Op 4 februari 2026 publiceert
Anthropic een principiële verklaring waarin het bedrijf duidelijk maakt dat zijn AI-assistent
Claude geen advertenties zal bevatten. Volgens Anthropic ondermijnen advertenties het vertrouwen, de onafhankelijkheid en de diepgang van AI-gesprekken. Het bedrijf kiest bewust voor betaalde abonnementen en zakelijke contracten, in plaats van het verkopen van aandacht of data.
Anthropic trekt harde lijn. Geen advertenties in Claude
Anthropic stelt dat gesprekken met AI fundamenteel verschillen van zoekopdrachten of sociale media. Gebruikers delen vaak persoonlijke context, gevoelige informatie en complexe vraagstukken. In zo’n omgeving passen geen gesponsorde links, productplaatsingen of commerciële prikkels.
Volgens het bedrijf moet
Claude altijd ondubbelzinnig in het belang van de gebruiker handelen. Advertenties zouden twijfel zaaien over de motivatie achter antwoorden. Gebruikers zouden zich kunnen afvragen of een suggestie bedoeld is om te helpen, of om te verkopen. Dat risico wil
Anthropic uitsluiten.
Waarom AI-gesprekken kwetsbaarder zijn dan zoekresultaten
Anthropic wijst erop dat mensen bij zoekmachines gewend zijn aan een mix van organische en betaalde resultaten. Bij AI-gesprekken ligt dat anders. De open dialoog nodigt uit tot vertrouwen en verdieping. Juist daardoor ontstaat ook een grotere gevoeligheid voor beïnvloeding.
Interne analyses van geanonimiseerde
Claude-gesprekken laten zien dat een aanzienlijk deel gaat over mentale gezondheid, werkstress, persoonlijke dilemma’s en complexe technische problemen. In zulke contexten voelen advertenties niet alleen storend, maar volgens
Anthropic ook ongepast.
Daarnaast erkent het bedrijf dat de impact van AI op menselijk gedrag nog niet volledig begrepen is. Het toevoegen van commerciële prikkels zou extra risico’s introduceren, terwijl het gedrag van modellen nog volop in ontwikkeling is.
Advertenties botsen met de prikkels van een behulpzame AI
Anthropic benadrukt dat advertentiemodellen andere doelen introduceren dan pure hulpverlening. Een AI zonder advertenties kan zich richten op het beste antwoord, zelfs als dat leidt tot een kort gesprek. Een advertentiegedreven AI krijgt juist prikkels om interactie te verlengen en engagement te maximaliseren.
Het bedrijf schetst een concreet voorbeeld. Als een gebruiker slecht slaapt, onderzoekt een onafhankelijke AI mogelijke oorzaken zoals stress, leefstijl of omgeving. Een AI met advertentiebelangen kan onbewust sturen richting producten of diensten. Dat verschil is voor gebruikers niet altijd zichtbaar.
Zelfs advertenties die los van antwoorden worden weergegeven, zoals banners in een chatvenster, passen volgens
Anthropic niet bij de rol van
Claude als rustige denkruimte.
Verdienmodel zonder advertenties
Anthropic kiest bewust voor een ander verdienmodel. Het bedrijf verdient geld met betaalde abonnementen, enterprise-oplossingen en ontwikkelaarscontracten. Die inkomsten investeert het terug in modelontwikkeling en veiligheid.
Tegelijkertijd wil
Anthropic Claude toegankelijk houden. Het bedrijf biedt kortingen aan non-profitorganisaties, werkt samen met overheden aan AI-educatie en stelt zijn modellen beschikbaar voor onderwijsinstellingen in meer dan zestig landen. Ook onderzoekt Anthropic regionale prijzen en goedkopere abonnementen.
Mocht het bedrijf ooit van koers veranderen, dan belooft het volledige transparantie.
Commerce mag, maar alleen op initiatief van de gebruiker
Anthropic sluit commerciële toepassingen niet uit. Het bedrijf ziet juist kansen in zogenoemde agentic commerce. Daarbij voert
Claude namens de gebruiker een aankoop of boeking uit, van begin tot eind. Cruciaal is dat de gebruiker dit zelf initieert.
Ook integraties met externe tools zoals ontwerp-, planning- en productiviteitssoftware passen binnen die visie. De AI werkt voor de gebruiker, niet voor adverteerders. Dat principe staat volgens
Anthropic centraal.
Claude als advertentievrije denkruimte
Anthropic vergelijkt
Claude met een leeg notitieboek, een goed stuk gereedschap of een schoon schoolbord. Zulke ruimtes bevatten geen advertenties en nodigen uit tot focus en helder denken. Het bedrijf wil dat Claude dezelfde rol vervult.
In een internet dat steeds meer draait om aandacht en monetisatie, positioneert
Anthropic Claude bewust als uitzondering. Een AI-assistent die niet verkoopt, niet stuurt en geen verborgen agenda heeft.