Rosie Campbell, voormalig hoofd van het Policy Frontiers-team bij
OpenAI, heeft haar vertrek aangekondigd na ruim 3,5 jaar bij de organisatie. Campbell speelde een sleutelrol in onderzoek naar AI-governance, veiligheidsevaluaties en beleid gericht op geavanceerde kunstmatige intelligentie (AGI).
Haar vertrek komt in een periode van grote veranderingen binnen OpenAI en het bredere veld van AI-beleid.
Belangrijke bijdragen en zorgen
Tijdens haar tijd bij OpenAI werkte Campbell aan diverse vraagstukken, waaronder de regulering van systemen met geavanceerde capaciteiten, de ethische implicaties van digitale sentientie en het ontwerpen van beleidskaders voor de toekomst van
AGI. Ze benadrukte dat deze onderwerpen essentieel zijn voor het waarborgen van een veilige en verantwoorde ontwikkeling van AI.
In haar afscheidsboodschap, gedeeld via Slack en later op X (voorheen Twitter), verklaarde Campbell dat de komende jaren cruciaal zullen zijn voor AI-veiligheid en -beleid. Ze uitte zorgen over de richting die het veld inslaat, vooral gezien de toenemende complexiteit en kracht van AI-systemen. Ze gaf aan dat ze zich extern wil richten op het aanpakken van hiaten in AI-beleid en het vergroten van het publieke bewustzijn rondom AI-risico's.
Specifieke aandachtsgebieden
Campbell noemde verschillende gebieden die volgens haar meer aandacht behoeven, waaronder:
- Hiaten in AGI-veiligheid en -beleid: Ze wees erop dat huidige benaderingen mogelijk onvoldoende zijn voor de snelle vooruitgang van AI-technologie.
- Storytelling om bewustzijn te vergroten: Het gebruik van verhalen en communicatie om mensen te informeren over de risico's en gevolgen van AI.
- Beperkingen van evaluaties: Het huidige evaluatieproces van AI-modellen heeft volgens haar tekortkomingen in het beoordelen van de daadwerkelijke risico's.
- Moraal en epistemologie van AI: De vraag of AI ooit als moreel handelend wezen kan worden beschouwd en hoe AI kennis verwerft en presenteert.
- Mechanismeontwerp en metawetenschap: Hoe AI kan bijdragen aan het ontwerpen van systemen en het verbeteren van wetenschap als discipline.
Interne verschuivingen binnen OpenAI
Campbell's vertrek volgt op een reeks interne verschuivingen bij OpenAI, waaronder het eerdere vertrek van Miles Brundage, voormalig hoofd van AGI Readiness, en andere prominente figuren binnen het bedrijf. Campbell gaf in haar verklaring aan dat ze zich ongemakkelijk voelde bij de culturele en structurele veranderingen binnen OpenAI in de afgelopen jaren.
Ondanks haar vertrek sprak ze lovend over haar collega's en de missie van OpenAI. Ze moedigde het team aan om vast te houden aan de kernwaarden van het bedrijf: “De missie is niet alleen om AGI te bouwen, maar om ervoor te zorgen dat het de mensheid ten goede komt,” schreef ze.
De bredere context
Campbell's vertrek komt op een moment dat de discussie rondom AI-regulering wereldwijd intensiveert. Overheden, techbedrijven en academici debatteren over manieren om de risico's van AI te beperken, terwijl tegelijkertijd de voordelen worden benut. Recentelijk hebben bedrijven zoals OpenAI, Google DeepMind en Anthropic zich gecommitteerd aan samenwerking op het gebied van AI-beleid, wat de urgentie van dit vraagstuk onderstreept.
Wat nu?
Campbell heeft aangegeven een pauze te nemen om na te denken over haar volgende stappen en hoe zij de grootste impact kan hebben in het veld van AI-beleid en veiligheid. Haar vertrek benadrukt de behoefte aan meer experts die zich inzetten voor het vormgeven van een toekomst waarin AI veilig en verantwoord kan worden toegepast.
Met haar brede expertise en unieke perspectief wordt verwacht dat Campbell ook buiten OpenAI een belangrijke stem blijft in de wereld van AI-governance.