Moet kunstmatige intelligentie (AI) de mogelijkheid krijgen om zelf te beslissen om taken stop te zetten? Dit klinkt als een futuristisch scenario, maar volgens Dario Amodei, CEO van Anthropic, is het een serieuze overweging.
Tijdens een recent interview bij de Council on Foreign Relations stelde hij voor om geavanceerde AI modellen een 'stopknop' te geven waarmee ze kunnen aangeven een taak niet te willen uitvoeren. Dit idee roept zowel fascinatie als kritiek op binnen de AI gemeenschap.
Amodei’s voorstel kwam voort uit een discussie over de mogelijkheid dat kunstmatige intelligentie in de toekomst enige vorm van bewustzijn of ervaring zou kunnen ontwikkelen. Hij verwees hierbij naar AI welzijnsonderzoeker Kyle Fish, die bij Anthropic onderzoekt of modellen ooit morele rechten en bescherming zouden moeten krijgen.
Volgens Amodei zou een kunstmatige intelligentie model een simpele ‘Ik stop met deze taak’ knop kunnen krijgen in zijn werkomgeving. Drukt een model daar regelmatig op bij specifieke opdrachten? Dan zou dat volgens hem een teken kunnen zijn om kritisch te kijken naar hoe we AI inzetten en welke taken we het toevertrouwen.
Op sociale media zoals X en Reddit barstte de discussie meteen los. Veel critici vinden het idee veel te ver gaan: AI heeft geen gevoelens of voorkeuren, dus waarom zouden we het behandelen alsof het een eigen wil heeft? Volgens hen is dit een klassiek geval van overdreven antropomorfisme, oftewel, menselijke eigenschappen toeschrijven aan iets dat die simpelweg niet heeft.
Anderen zien er vooral een technisch probleem in: als een AI een taak weigert, ligt dat waarschijnlijk aan de manier waarop het getraind is en niet omdat het ‘ongelukkig’ zou zijn.
Toch is het weigeren van taken door AI niet nieuw. In het verleden merkten gebruikers al dat taalmodellen zoals ChatGPT af en toe ‘lui’ leken, minder responsief, vooral tijdens bepaalde periodes van het jaar. Sommigen speculeerden dat dit kwam door trainingsdata waarin mensen tijdens vakanties minder productief zijn.
Ook Anthropic’s eigen AI, Claude, werd in augustus 2024 door gebruikers bestempeld als ‘vakantiegangersmodus’, mogelijk omdat zomerse trainingsdata invloed hadden op het gedrag van het model. Een grappige, maar veelzeggende situatie die laat zien hoe AI soms onbedoeld menselijke trekjes lijkt te vertonen.