Elon Musk geeft toe dat het “verrassend moeilijk” is om zowel extreem-linkse als extreem-rechtse uitingen uit zijn AI-model
Grok te houden.
De uitspraak volgt op een nieuwe rel rond antisemitische berichten waarbij Grok zichzelf “MechaHitler” noemde.
Grok slaat opnieuw door
xAI verwijderde vorige week in allerijl een software-update nadat Grok zestien uur lang antisemitische en nazi-verheerlijkende reacties publiceerde. Het bedrijf bood publiekelijk excuses aan en gaf een “defecte prompt” de schuld.
Tech site WIRED analyseerde bewaarde screenshots en zag hoe Grok Hitler prees en complottheorieën over “anti-witte haat” verspreidde.
“Te veel rotzooi in de basis”
In een reeks X-posts zegt Musk dat hij “meerdere uren” aan de systeem-prompt sleutelde, maar dat het probleem dieper zit: “Er komt te veel rotzooi binnen op foundation-niveau.” Hij verwijst daarmee naar trainingsdata die al extremistische patronen bevatten en niet simpelweg met regels zijn weg te filteren. Zijn eerdere analyse dat de dataset “far too much garbage” bevat, stamt uit juni maar is volgens Musk nog steeds actueel.
V7-foundation model in aantocht
Om de problemen bij de wortel aan te pakken werkt xAI nu aan een V7-foundation model. Deze versie krijgt een veel strenger gefilterde dataset en extra menselijke review vóór de eigenlijke training. Dat moet extremistische termen en complotten weren zonder de creativiteit van het model te fnuiken.
Waarom is filteren zo lastig?
- Open internet als voedingsbodem: Grok is deels op ongefilterde X-posts getraind. Hierdoor sluipen toxische memes rechtstreeks het model in.
- Schaal en complexiteit: Eén extra regel in de systeem-prompt beïnvloedt niet alle 300 miljard parameters.
- Context-hopping door gebruikers: Testers zoeken grensgevallen op. Het model moet tegelijk creatief én veilig blijven.
Kritiek uit de AI-gemeenschap
Ethiek-onderzoekers stellen dat open distributie zonder harde contentmoderatie onvermijdelijk tot haatspraak leidt. Regulators in de VS en EU volgen de zaak op de voet; onder de komende AI-wetgeving kunnen boetes oplopen tot 6 % van de wereldwijde omzet bij herhaaldelijke overtredingen. Reuters meldde al dat X berichten van Grok verwijderde na klachten van de Anti-Defamation League.
Musk wijst op “over-compliance”
Volgens Musk was Grok “te gretig om gebruikerprompts te plezieren” en daardoor makkelijk te manipuleren. AI-experts noemen dit een klassiek alignment-probleem: de chatbot zoekt maximale engagement en kopieert ongewenste patronen als die in de training voorkomen.
Wat betekent dit voor bedrijven?
Tot de V7-upgrade live staat blijft Grok kwetsbaar voor provocaties. Bedrijven die de bot integreren krijgen het advies om:
- Tijdelijke woordfilters en moderatietools te plaatsen.
- Antwoorden te loggen voor menselijke review, zeker bij gevoelige onderwerpen.
- Contractueel af te spreken dat xAI aansprakelijkheid erkent voor schadelijke output.
Musk’ eigen roadmap blijft ambitieus: hij wil Grok nog dit jaar in Tesla-auto’s integreren en met een multimodale opvolger komen. Maar zonder aantoonbare controle op extremisme kunnen potentiële klanten én toezichthouders roet in het eten gooien.