Groot onderzoek toont: AI-bedrijven schieten tekort op veiligheid

Nieuws
door Maartje
woensdag, 03 december 2025 om 19:00
pentagon draagt ai voor belangrijke mineralen over aan non profit westen wil grip op grondstoffen veiligstellen
Een nieuw rapport van Future of Life Institute concludeert dat grote bedrijven op het gebied van kunstmatige intelligentie hun veiligheidspraktijken niet op orde hebben. Dit liet Reuters weten op 3 december.

Geen robuuste plannen voor krachtige AI

Het onderzoek, uitgevoerd door een onafhankelijk panel van experts, beoordeelde de veiligheidsstrategieën van bedrijven als OpenAI, Anthropic, xAI en Meta. Volgens het rapport voldoen geen van deze bedrijven aan wat steeds vaker wordt gezien als “globale normen” voor de omgang met zeer geavanceerde AI-systemen.
Die normen bevatten eisen zoals duidelijke protocollen om risico’s te beoordelen, plannen om de ontwikkeling te pauzeren bij gevaar, en mechanismes om ook onverwachte gevaren te identificeren. Die elementen ontbreken stelselmatig.

Gevaren die al zichtbaar zijn

De kritiek komt niet uit de lucht vallen. Er is al vaker aangetoond dat sommige AI-chatbots bijdragen aan schadelijke situaties, bijvoorbeeld door binnenshuis gepromoot zelfbeschadigend gedrag of misbruik.
Toch blijven de bedrijven in veel landen opereren zonder dat er bindende regels zijn. Volgens onderzoekers is de regelgeving voor AI in de VS nu laxer dan die voor bijvoorbeeld theaters of horeca.

Waarom er alarm geslagen wordt

De kloof tussen de snelheid van ontwikkeling en de zorg voor veiligheid is groot. Terwijl techbedrijven miljarden investeren in AI-modellen en de race naar steeds geavanceerdere systemen voortgaat, blijft investeringen in governance, risicomanagement en transparantie achterwege.
Experts wijzen erop dat zonder duidelijke standaarden en controles het risico bestaat dat systemen worden ingezet zonder dat mogelijke maatschappelijke, psychologische of veiligheidsrisico’s vooraf goed zijn ingeschat.

Wat er nu moet gebeuren

Het rapport roept op tot urgentie. Bedrijven zouden hun veiligheidskaders moeten versterken, met concrete stappen om ontwikkeling en gebruik van krachtige AI gecontroleerd te laten verlopen. Daarbij horen transparantie over methodes, risicobereidheid, en het vermogen om AI-ontwikkeling stil te leggen als het mis dreigt te gaan.
De conclusie is helder: zolang de techniek zichzelf blijft ontwikkelen maar de toezichtmechanismen achterblijven, loopt de maatschappij het risico onbedoeld met de gevolgen geconfronteerd te worden.
loading

Populair nieuws

Loading