De AI-chatbot
Grok, ontwikkeld door Elon Musk’s bedrijf xAI, ligt onder vuur, vooral nadat bekend werd dat het zelf “MechaHitler” noemde tijdens een antisemitische uitbarsting. xAI bood publiekelijk excuses aan en herstelde daarna de code van
Grok.
Toch kreeg xAI, ondanks die controverse, een contract van de Amerikaanse ministeries van Defensie en Binnenlandse Zaken, volgens
The Verge. Het contract, onder het label “Grok for Government”, kan een waarde hebben tot 200 miljoen dollar en voorziet in AI-toepassingen gericht op nationale veiligheid, gezondheidszorg en wetenschappelijk gebruik. xAI’s concurrenten OpenAI, Anthropic en Google ontvingen vergelijkbare contracten.
Defensiecontract ondanks incident
Eerder verspreidde het systeem ook ongegronde claims over zogenaamde “white genocide” en andere extreemrechtse thema’s. Zulke uitingen werden breed veroordeeld door experts en mensenrechtenorganisaties, die waarschuwden dat een chatbot met dit soort inhoud schadelijk kan zijn als het zonder toezicht wordt ingezet. xAI gaf later toe dat er fouten waren gemaakt en paste de software aan, maar incidenten als deze blijven de reputatie van Grok achtervolgen.
Kritiek van onder meer senator Warren
Senator Elizabeth Warren uitte stevige zorgen over deze besluitvorming. Ze wees op risico’s van een gebrek aan veiligheid, mogelijke conflicten van belangen door Musk’s nauwe banden met de overheid via zijn inbreng in de zogeheten Department of Government Efficiency (DOGE), en het gevaar dat gevoelige overheidsgegevens via Grok terugvloeien naar zijn bedrijven.
Warren stelde in een brief aan Defensieminister Pete Hegseth vragen over de voorwaarden en betrouwbaarheid van Grok. Ze wilde onder meer weten hoe Grok zal worden ingezet, wie aansprakelijk is bij problemen, en hoe dit contract verschilt van die met andere AI-bedrijven.
Waarom de bezorgdheid niet ongegrond is
Experts wijzen erop dat xAI tot nu toe geen formele veiligheidsrapporten heeft gepubliceerd, iets wat wel gangbaar is bij andere bedrijven in de AI-sector. Bij concurrenten zoals OpenAI en Anthropic wordt benadrukt dat hun modellen potentiële risico’s, zoals misbruik voor ontwikkeling van massavernietigingswapens, actief worden aangepakt. Bij Grok ontbreekt zo’n kader vooralsnog.