Veiligheidszorgen rond Elon Musk’s AI-chatbot Grok

Nieuws
door Maartje
woensdag, 10 september 2025 om 19:00
Grok 4 Review 2025 De nieuwe, verbeterde xAI chatbot
De AI-chatbot Grok, ontwikkeld door Elon Musk’s bedrijf xAI, ligt onder vuur, vooral nadat bekend werd dat het zelf “MechaHitler” noemde tijdens een antisemitische uitbarsting. xAI bood publiekelijk excuses aan en herstelde daarna de code van Grok.
Toch kreeg xAI, ondanks die controverse, een contract van de Amerikaanse ministeries van Defensie en Binnenlandse Zaken, volgens The Verge. Het contract, onder het label “Grok for Government”, kan een waarde hebben tot 200 miljoen dollar en voorziet in AI-toepassingen gericht op nationale veiligheid, gezondheidszorg en wetenschappelijk gebruik. xAI’s concurrenten OpenAI, Anthropic en Google ontvingen vergelijkbare contracten.

Defensiecontract ondanks incident

Eerder verspreidde het systeem ook ongegronde claims over zogenaamde “white genocide” en andere extreemrechtse thema’s. Zulke uitingen werden breed veroordeeld door experts en mensenrechtenorganisaties, die waarschuwden dat een chatbot met dit soort inhoud schadelijk kan zijn als het zonder toezicht wordt ingezet. xAI gaf later toe dat er fouten waren gemaakt en paste de software aan, maar incidenten als deze blijven de reputatie van Grok achtervolgen.

Kritiek van onder meer senator Warren

Senator Elizabeth Warren uitte stevige zorgen over deze besluitvorming. Ze wees op risico’s van een gebrek aan veiligheid, mogelijke conflicten van belangen door Musk’s nauwe banden met de overheid via zijn inbreng in de zogeheten Department of Government Efficiency (DOGE), en het gevaar dat gevoelige overheidsgegevens via Grok terugvloeien naar zijn bedrijven. 
Warren stelde in een brief aan Defensieminister Pete Hegseth vragen over de voorwaarden en betrouwbaarheid van Grok. Ze wilde onder meer weten hoe Grok zal worden ingezet, wie aansprakelijk is bij problemen, en hoe dit contract verschilt van die met andere AI-bedrijven.

Waarom de bezorgdheid niet ongegrond is

Experts wijzen erop dat xAI tot nu toe geen formele veiligheidsrapporten heeft gepubliceerd, iets wat wel gangbaar is bij andere bedrijven in de AI-sector. Bij concurrenten zoals OpenAI en Anthropic wordt benadrukt dat hun modellen potentiële risico’s, zoals misbruik voor ontwikkeling van massavernietigingswapens, actief worden aangepakt. Bij Grok ontbreekt zo’n kader vooralsnog.
loading

Loading