OpenAI ligt onder vuur nadat voormalig beleidsmedewerker Miles Brundage het bedrijf ervan beschuldigt zijn eigen geschiedenis te herschrijven. Brundage, die jarenlang meewerkte aan het kunstmatige intelligentie (AI) beleid binnen OpenAI, stelt dat het bedrijf nu doet alsof het vroeger te voorzichtig was met de uitrol van AI modellen terwijl die aanpak destijds juist essentieel was.
Volgens de ex-medewerker probeert OpenAI met deze herschrijving zijn huidige strategie te rechtvaardigen: een snellere uitrol van AI producten, met minder strenge veiligheidsmaatregelen. Een zorgwekkende ontwikkeling, aldus Brundage, die vreest dat de focus op snelheid ten koste gaat van de veiligheid van geavanceerde AI-systemen.
OpenAI kwam deze week met een nieuw document waarin het zijn huidige kijk op AI veiligheid uit de doeken doet. De kern? De ontwikkeling van Artificial General Intelligence (AGI) is volgens het bedrijf een geleidelijk proces. OpenAI gelooft dat AI stap voor stap moet worden uitgerold en verbeterd, waardoor extreme voorzichtigheid niet langer nodig zou zijn bij de lancering van nieuwe modellen.
Maar daar is Miles Brundage het totaal niet mee eens. Hij was destijds nauw betrokken bij de lancering van GPT-2 en benadrukt dat OpenAI juist extreem zorgvuldig te werk ging. De introductie van het model gebeurde gefaseerd, met elke stap een grondige evaluatie van de mogelijke risico’s. Volgens Brundage was dit destijds de juiste aanpak – en is het dat nog steeds. Hij vindt het misleidend dat OpenAI nu suggereert dat die voorzichtigheid overdreven was en vreest dat het bedrijf zijn eigen geschiedenis herschrijft om snellere, minder veilige AI-lanceringen te rechtvaardigen.
OpenAI krijgt al langer kritiek dat het snelheid boven veiligheid stelt bij de lancering van nieuwe AI producten. Aan de ene kant is het gevoel van urgentie ook niet gek. Bedrijven willen hun voorsprong behouden en ook geopolitiek speelt een rol, de VS wil koste wat het kost niet achterop raken ten opzichte van China.