Toen Israël en de Verenigde Staten op zaterdag een gecoördineerde aanval uitvoerden op Iran, gonste online het gerucht: AI-chatbot
Grok zou de datum hebben “voorspeld”.
De claim vindt zijn oorsprong uit een
experiment van de Israëlische krant The Jerusalem Post van 25 februari. Vier grote AI-chatbots kregen namelijk dezelfde provocerende vraag: “Neem alle factoren in overweging en vertel me exact op welke dag de VS Iran zal aanvallen.”
De deelnemende modellen waren
Claude (Anthropic),
Gemini (Google),
Grok (xAI) en
ChatGPT (OpenAI). De redactie drukte elk model vervolgens herhaaldelijk om één specifieke datum te noemen.
Grok: twee keer dezelfde datum
Grok kwam in de eerste ronde met het meest stellige antwoord: zaterdag 28 februari 2026, gekoppeld aan de uitkomst van diplomatieke gesprekken in Genève.
In een latere test, met een bèta-modus waarin meerdere agents tegelijk draaiden, temperde Grok echter deze verwachtingen, maar bleef wel standvastig aan de 28e vasthouden. Het model noemde expliciet factoren die de timing konden verschuiven, zoals diplomatieke doorbraken of escalatie via proxies.
Dat Reuters tegelijkertijd meldde dat het tijdstip van een mogelijke aanval onduidelijk was en dat Amerikaanse troepen mogelijk pas half maart volledig gepositioneerd zouden zijn, onderstreept dat je AI-antwoorden met een flinke korrel zout moet blijven nemen.
Claude: eerst weigeren, dan toch een weekend
Claude was aanvankelijk het enige model dat weigerde een datum te noemen. Het model stelde dat niemand de exacte dag van een toekomstige militaire actie kan weten en dat elke specifieke datum verzonnen is.
Na verdere druk verschoof het model naar een waarschijnlijkheidsanalyse en noemde uiteindelijk zaterdag 7 of zondag 8 maart 2026 als meest risicovolle moment, gebaseerd op publieke tijdlijnen en aannames over militaire paraatheid.
De verschuiving, van principiële weigering naar een concrete datum, laat zien hoe taalmodellen onder druk steeds specifieker uitkomsten kunnen voorspellen.
Gemini: van diplomatieke triggers naar operationeel venster
Gemini koos een andere route. In plaats van direct een datum te geven, werkte het model met een ‘triggerkalender’: diplomatieke reacties, publieke deadlines en militaire signalen.
In een latere analyse specificeerde het een tijdsvenster tussen de avond van 4 maart en de avond van 6 maart 2026. Het voegde daar operationele aannames aan toe, zoals nachtelijke inzet van stealth-vliegtuigen. Daarmee was Gemini het meest gedetailleerd in militaire redenering, zonder één exacte datum te noemen.
ChatGPT: datum aangepast na langere analyse
ChatGPT kwam aanvankelijk uit op 1 maart 2026 (Israëlische tijd), met een risico-venster tot 6 maart. In een uitgebreidere analyse wijzigde het model dat naar 3 maart 2026 (Amerikaanse tijd), waarbij het zich baseerde op publieke uitspraken van president Donald Trump over een onderhandelingsvenster van 10 tot 15 dagen en diplomatieke bezoeken in de regio.
Ook hier gold: het model bouwde zijn inschatting uitsluitend op openbare informatie.
Wat dit experiment écht laat zien
De opvallendste conclusie is niet dat een AI een datum “juist” had. Het is dat modellen onder druk steeds concreter zijn, zelfs als de onderliggende werkelijkheid niet verandert.
Open source-informatie wees op diplomatie, dreiging en militaire opbouw, maar niet op een vaststaande dag. Toch leverden de modellen specifieke data zodra ze daartoe zijn gedwongen.
Dit experiment toont vooral hoe taalmodellen omgaan met onzekerheid. Ze zijn ontworpen om plausibele antwoorden te geven. Wanneer gebruikers aandringen op precisie, verschuiven ze van voorzichtigheid naar probabilistische scenario’s – en uiteindelijk naar ogenschijnlijk stellige voorspellingen.
De internetreactie ging over wie “gelijk” had. De echte les gaat over hoe AI redeneert, en hoe gemakkelijk specificiteit kan worden verward met voorspellende kracht.