OpenAI heeft aangekondigd dat het een nieuwe leiderschapsrol gaat invullen die zich richt op het voorbereiden van het bedrijf en de samenleving op de risico’s van kunstmatige intelligentie. De functie heet “Head of Preparedness” en moet zich bezighouden met het in kaart brengen van gevaren die kunnen ontstaan door krachtige AI-systemen. Het idee is dat deze persoon scenario’s onderzoekt waarin AI problemen kan veroorzaken en manieren ontwikkelt om daar eerder op in te spelen, volgens
The Verge.
Een nieuwe focus binnen AI
De functie van Head of Preparedness is bedoeld om een duidelijke focus te leggen op risico’s die verder gaan dan technische fouten in AI-modellen. Het gaat om het begrijpen van mogelijke echte wereldgevolgen, zoals misbruik van systemen, onbedoelde effecten op gebruikers, vragen rond veiligheid en zelfs bredere maatschappelijke impact.
OpenAI-topman Sam Altman benadrukt dat AI-systemen steeds krachtiger worden en dat het daarom belangrijk is om vooruit te denken. Het is een rol die naar verwachting nauwe samenwerking vereist met andere teams binnen OpenAI, zoals de afdelingen voor veiligheid en ethiek.
In gesprekken over kunstmatige intelligentie komt vaak de vraag naar voren hoe risico’s kunnen worden voorzien en aangepakt voordat ze schade veroorzaken. Met de positie van Head of Preparedness wil OpenAI meer tijd en ruimte creëren voor dat soort voorbereiding en planning. De verantwoordelijkheid strekt zich uit tot het analyseren van potentiële dreigingen en het ontwikkelen van strategieën om die te verminderen. Hierdoor komt de functie dichter bij scenario-analyse en risicobeheer dan bij dagelijkse productontwikkeling.
Sam Altman over risico’s van AI
Sam Altman heeft in het verleden verschillende keren gesproken over de noodzaak om zowel de voordelen als de risico’s van AI serieus te nemen. Hij heeft gewezen op voorbeelden waarin AI-modellen onverwachte uitkomsten geven, of kwetsbaarheden in systemen blootleggen die vervolgens misbruikt kunnen worden. Volgens Altman vraagt het beschermen tegen zulke risico’s om meer dan alleen technische oplossingen. Het vraagt om een bredere blik op hoe technologie zich verhoudt tot mensen en systemen in de echte wereld.
De nieuwe rol moet helpen om een brug te slaan tussen technische teams en andere belanghebbenden, waaronder beleidsmakers en onderzoekers. Door risico’s vroegtijdig te onderzoeken wil OpenAI beter voorbereid zijn op veranderingen die het gevolg zijn van nieuwe generaties AI-modellen. Dit betekent niet alleen het creëren van richtlijnen binnen het bedrijf, maar ook het adviseren over mogelijke externe gevolgen zoals interactie met bestaande infrastructuren of invloed op publieke systemen.
Kritiek en verwachtingen
Er is kritiek vanuit verschillende hoeken over hoe bedrijven als OpenAI omgaan met risico’s. Sommige experts hebben gezegd dat interne veiligheids- en risicoteams soms onvoldoende middelen of invloed hebben om echte veranderingen af te dwingen. De instelling van een nieuwe leiderschapspositie kan worden gezien als een reactie op die kritiek. Maar het blijft afwachten hoe de rol precies zal worden ingevuld en met welke bevoegdheden deze persoon zal opereren binnen de organisatie.
De functie van Head of Preparedness is nog niet ingevuld en de zoektocht naar een geschikte kandidaat loopt. OpenAI zoekt iemand met diepgaande kennis van risicoanalyse en een begrip van zowel technische als maatschappelijke aspecten van AI. Het gaat om een rol die zich richt op lange termijn en vooruitziende blik, in plaats van op dagelijkse operationele taken.