Google’s beloftes over AI-veiligheid onder de loep na Gemini-rapport

Nieuws
vrijdag, 18 april 2025 om 14:00
google
Google heeft een veiligheidsrapport gepubliceerd over zijn toonaangevende kunstmatige intelligentie-model, Gemini 2.5 Pro. Experts stellen dat het rapport cruciale risico’s onbehandeld laat.

Google en AI-veiligheid 

Het bedrijf publiceerde het technische document afgelopen donderdag, enkele weken nadat Gemini 2.5 Pro al beschikbaar kwam voor klanten. Het document noemt interne testen die Google heeft uitgevoerd, maar geeft weinig inzicht in hoe het systeem zich gedraagt bij overbelasting of misbruik.
Onderzoekers die het rapport bekeken, vertelden TechCrunch dat deze ontbrekende details het moeilijk maken om te beoordelen of Gemini 2.5 Pro echt veilig is voor breed gebruik.
Technische rapporten zijn een van de belangrijkste manieren waarop het publiek inzicht krijgt in wat geavanceerde AI-systemen wel en niet kunnen. Een grondig rapport toont meestal waar een model tekortschiet en waar het mogelijk misbruikt kan worden. Veel AI-onderzoekers zien deze documenten als oprechte pogingen om de veiligheidsclaims van een bedrijf te onderbouwen.
Google pakt veiligheidsrapportage anders aan. Google publiceert een rapport pas nadat een model niet langer als "experimenteel" wordt beschouwd en zet bepaalde bevindingen over "gevaarlijke capaciteiten" in een afzonderlijke audit, die niet meteen openbaar wordt gemaakt. Daardoor behandelt het openbare rapport niet elk risico dat Google heeft onderzocht.

Beperkte openheid

Diverse analisten beschouwen het nieuwe Gemini 2.5 Pro-document als een duidelijk geval van beperkte openheid. Ze merken ook op dat het rapport nergens verwijst naar Googles Frontier Safety Framework (FSF), een beleid dat het bedrijf vorig jaar aankondigde om toekomstige AI-capaciteiten te identificeren die ernstige schade zouden kunnen veroorzaken.
"Dit rapport is uiterst karig, bevat minimale informatie en verscheen pas weken nadat het model openbaar werd gemaakt," aldus Peter Wildeford, medeoprichter van het Institute for AI Policy and Strategy. "Het is onmogelijk te bevestigen of Google zijn eigen beloftes nakomt en daardoor onmogelijk om de veiligheid en beveiliging van zijn modellen te beoordelen."
Thomas Woodside, medeoprichter van het Secure AI Project, zei blij te zijn dat er überhaupt een rapport verscheen, maar betwijfelde Googles belofte om regelmatige vervolgupdates uit te brengen. Hij wees erop dat het bedrijf voor het laatst resultaten over tests naar gevaarlijke capaciteiten deelde in juni 2024, terwijl dat rapport ging over een model dat al in februari van dat jaar werd aangekondigd.
Het vertrouwen nam verder af toen bleek dat er geen veiligheidsrapport was voor Gemini 2.5 Flash, een lichtere en snellere versie van het model die Google vorige week presenteerde. Een woordvoerder van het bedrijf zei dat een rapport voor Flash "binnenkort verschijnt."
"Ik hoop dat dit een echte belofte is om vaker updates te geven," zei Woodside. "Die updates zouden ook resultaten moeten bevatten van modellen die nog niet publiek beschikbaar zijn, omdat ook die modellen serieuze risico’s met zich mee kunnen brengen."

Meta en Llama 4

Google schiet nu tekort op transparantie Meta’s veiligheidsnotitie voor zijn nieuwe Llama 4-modellen telt slechts enkele pagina's, terwijl OpenAI ervoor koos helemaal geen rapport uit te brengen voor de GPT‑4.1-serie.
Het gebrek aan details komt op een gevoelig moment. Twee jaar geleden beloofde Google de Amerikaanse overheid om veiligheidsrapporten te publiceren voor elk "significant" AI-model binnen zijn bereik. Het bedrijf deed soortgelijke toezeggingen aan functionarissen in andere landen, waarbij het stelde "openbaar transparant" te willen zijn over zijn AI-producten.
Kevin Bankston, senior adviseur AI-beleid bij het Center for Democracy and Technology, noemde de publicaties van vooraanstaande labs "een race naar beneden" op het gebied van veiligheid.
"In combinatie met berichten dat concurrenten zoals OpenAI de tijd voor veiligheidstesten hebben ingekort van maanden naar dagen, vertelt deze karige documentatie voor Googles topmodel een verontrustend verhaal van een race naar beneden wat betreft AI-veiligheid en transparantie, terwijl bedrijven haast maken om hun modellen op de markt te brengen," voegde hij eraan toe.
Google zegt dat veel van het veiligheidswerk achter gesloten deuren plaatsvindt. Het bedrijf stelt dat elk model strenge tests ondergaat, waaronder "adversarial red teaming", voordat het publiek wordt geïntroduceerd.