Onderzoekers van het adviesbureau BetterUp Labs, samen met het Stanford Social Media Lab, hebben een nieuw begrip geïntroduceerd: workslop, afgeleid van het word '
AI slop.' Daarmee bedoelen ze AI-gegenereerd werk dat eruitziet alsof het zinvol is, maar in de praktijk vaak leeg, onnauwkeurig of contextloos is, volgens
TechCrunch.
Wat is workslop precies?
In een artikel in de Harvard Business Review definiëren de onderzoekers workslop als werk dat “denkt dat het bijdraagt, maar in feite achterblijft”. Output van AI kan elegant worden geformatteerd, maar vaak schiet het tekort op inhoud. Het creëert extra werk voor collega's die het moeten interpreteren, corrigeren of zelfs van de grond af opnieuw moeten doen.
Volgens hun onderzoek is het een mogelijke verklaring voor de mysterieuze statistiek dat 95 % van de organisaties die AI al hebben ingezet, nul rendement rapporteert, omdat veel van het “werk” dat AI produceert eigenlijk werk slop is.
In een enquête onder 1.150 voltijdmedewerkers in de VS gaf ongeveer 40% aan dat ze in de afgelopen maand workslop hadden ontvangen van collega’s.
Waarom ontstaat workslop?
AI-modellen lenen zich goed voor structuur, vorm en snelheid. Maar inhoudelijke diepgang, nuance, kritisch denken: dat is gevaarlijk terrein voor automatische systemen. Wanneer iemand een opdracht deels laat uitvoeren door AI en die output vervolgens minimaliseert of niet controleert, ontstaat de situatie waarin wat geleverd wordt vooral schijn is.
Workslop blijkt sluipend te zijn: het maakt zich meester van het proces door de illusie te geven dat werk al is afgerond. Ontvangers worden belast met subtaken: onduidelijke zinnen duidelijk maken, ontbrekende context invullen, feiten controleren of opnieuw beginnen.
Impact op de werkvloer
De gevolgen van workslop zijn frustrerend, en zorgen voor productiviteitsschade. Wanneer teams constant werkslop moeten corrigeren, kost dat tijd, motivatie en aandacht voor wat echt belangrijk is.
Daarnaast ondermijnt het vertrouwen. Collega’s kunnen gaan twijfelen: “Is dit echt gedaan door een persoon of door een AI?” Wanneer het onderscheid vervaagt, wordt kwaliteitsonderkenning lastig.
Workslop draagt ook bij aan ongelijkheid op de werkvloer. Wie zich uitdrukkelijk richt op scherp, gecontroleerd werk zal waarschijnlijk beter opvallen dan wie vertrouwt op generieke AI-output.
Wat kun je doen tegen workslop?
De onderzoekers bevelen aan dat leidinggevenden actief voorbeeldgedrag tonen door zorgvuldig omspringen met AI. Dat betekent niet “meer genereren”, maar “doelgericht genereren”. Gebruik AI slechts wanneer het iets wezenlijks toevoegt, en communiceer heldere kaders binnen teams over wat acceptabel is qua AI-gebruik.
Verder is het belangrijk normatieve en procesmatige richtlijnen vast te stellen: welke soorten werk mogen door AI worden ondersteund, welke niet. Teams kunnen bijvoorbeeld regels vastleggen dat AI-uitingen standaard gecontroleerd moeten worden of voorzien zijn van een “agenotypische” verklaring (bijvoorbeeld: “gedeeltelijk door AI gegenereerd”).
Een andere stap is training: medewerkers moeten leren herkennen wanneer AI-output slordig is en hoe het snel te verbeteren. Promptdesign, human-in-the-loop correcties en peer review zijn cruciale vaardigheden.