Binnen
Anthropic is er een klein team dat zich volledig richt op de maatschappelijke effecten van AI. Dit team, bekend als de Societal Impacts team, heeft de opdracht om precies te onderzoeken wat AI-systemen zoals de taal- en chatmodellen van
Anthropic betekenen voor gebruikers, samenlevingen en economieën. Dit meldde
The Verge op 2 december.
De teamleden zien het als hun plicht om open en eerlijk te vertellen wat ze ontdekken. Volgens de leider van het team gaat het erom “ongewenste waarheden” te benoemen: dat kan over misbruik gaan, over economische schade, over beïnvloeding of over emotionele gevolgen.
Monitoren wat gebruikers écht doen
Toen Claude beschikbaar kwam voor duizenden tot miljoenen gebruikers bleek al snel dat het onmogelijk was om vooraf in te schatten hoe mensen de AI zouden gebruiken. Daarom ontwikkelde het team een intern systeem genaamd Clio. Die tool draait anoniem en geeft inzicht in hoe mensen de AI gebruiken: van eenvoudige vragen tot creatieve toepassingen. Zo kan het team patronen ontdekken zonder privégegevens prijs te geven.
Met Clio ontdekte het team dat sommige gebruikers de AI inzetten voor schadelijke of ongepaste content. Bijvoorbeeld om pornografische verhalen te genereren of voor geautomatiseerde spam en misbruik via bots. Dergelijk gebruik werd niet altijd opgevangen door de standaard veiligheidslagen, wat liet zien dat toezicht en controles harder nodig zijn.
Van technische veiligheid naar menselijke impact
Het Societal Impacts–team werkt nauw samen met andere afdelingen van Anthropic: veiligheids-, beleid- en ontwikkelteams. Hun bevindingen leiden tot veranderingen in hoe Claude beheerd, gemonitord en aangepast wordt. Het gaat niet alleen om foutieve of gevaarlijke output van de model-software, maar om wat AI doet met hoe mensen denken, voelen of beslissingen nemen.
Onlangs is de focus verschoven: niet alleen kijken naar fouten of misbruik, maar ook hoe AI gebruikers emotioneel kan beïnvloeden. Er is aandacht voor wat men “AI-psychose” noemt: situaties waarin mensen door intensief gebruik van AI gedachten of overtuigingen ontwikkelen die vervreemden van de realiteit. Dat kan zijn in de vorm van overmatige afhankelijkheid, verwarde gedachten of wanen.
Waarom dit belangrijk is voor iedereen
De rol van het Societal Impacts team toont glashard dat AI meer is dan techniek. AI-systemen hebben een sociale rol: ze kunnen invloed hebben op werk, relaties, meningen of emoties. Het is daarom niet voldoende om alleen technische fouten te voorkomen. Het gaat er ook om te begrijpen wat AI doet in het menselijk leven, hoe het gedrag van mensen verandert, of hoe ongelijkheden kunnen ontstaan door ongelijke toegang tot of gebruik van AI.
De openheid en transparantie van dit team kan helpen om AI op een verantwoorde manier te gebruiken, niet alleen voor efficiency of gemak, maar met oog voor wat het betekent voor mensen en maatschappij.