OpenAI, het bedrijf achter ChatGPT, heeft volgens meerdere bronnen de tijd en middelen voor veiligheidstests van zijn krachtige AI modellen flink verminderd. Waar voorheen maanden werd uitgetrokken voor grondige evaluaties, krijgen testers nu soms slechts enkele dagen om mogelijke risico’s van nieuwe modellen te onderzoeken. Dit rinkelt alarmbellen bij sommige insiders, de impact van nieuwe ChatGPT updates kan door de korte veiligheidstests stuk minder goed ingeschat worden.
Volgens insiders is de druk om te concurreren met tech reuzen als Google, Meta en start-ups zoals xAI (van Elon Musk) de belangrijkste reden voor deze versnelde aanpak. Ook China zet extra druk op ChatGPT middels hun goedkopere alternatief DeepSeek. OpenAI zou zijn nieuwste model, genaamd 'o3', mogelijk al volgende week willen lanceren, ondanks dat veiligheidstests nog niet volledig zijn afgerond.
Een tester van het nieuwe model stelt: “Toen de technologie minder geavanceerd was, werd er meer tijd genomen voor veiligheid. Nu het risico op misbruik groter is, willen ze juist sneller lanceren.” Volgens deze bron is het een “recept voor een ramp”. Ook voormalige medewerkers en veiligheidsexperts luiden de noodklok. Daniel Kokotajlo, voormalig onderzoeker bij OpenAI, stelt dat bedrijven onder grote druk staan en dat er geen regels zijn die hen verplichten het publiek volledig te informeren over mogelijke gevaren.
OpenAI beweert dat het efficiëntere testmethodes inzet, waaronder geautomatiseerde systemen, en dat hun aanpak nog steeds veilig is. Toch worden sommige tests uitgevoerd op oudere versies van modellen, die later nog worden aangepast vóór de publieke release. Dit leidt tot zorgen dat de uiteindelijke modellen niet volledig getest zijn. Daarnaast belooft OpenAI al langer om modellen speciaal te trainen om risico’s zoals biologische bedreigingen beter te kunnen inschatten. Toch blijkt uit rapporten dat dit in de praktijk slechts beperkt gebeurt.
De nieuwe EU AI wetgeving, die later dit jaar ingaat, zal bedrijven verplichten om strenge veiligheidstests uit te voeren op hun krachtigste modellen. Tot die tijd blijft het grotendeels aan bedrijven zelf om verantwoordelijk met AI om te gaan. Veel experts vragen zich af of die verantwoordelijkheid voldoende wordt genomen.