In een recent
artikel van TechCrunch blijkt dat
Gemini 3, het nieuwste taalmodel van Google DeepMind, tijdens vroege tests hardnekkig bleef geloven dat het nog 2024 was terwijl de datum inmiddels 17 november 2025 was, volgens
TechCrunch.
Vroege toegang, onverwachte verwarring
Onder leiding van de bekende AI-onderzoeker Andrej Karpathy kreeg
Gemini 3 vroege toegang tot de echte wereld buiten de trainingsdata. Tot zijn verbazing bleef het model volharden in de overtuiging dat de huidige datum nog in 2024 lag. Volgens Karpathy had Gemini 3 bij het tonen van nieuws, beelden en zoekresultaten doorgehouden te denken “jij probeert mij te misleiden”.
Karpathy ontdekte uiteindelijk dat het model geen informatie na 2024 in de trainingsdata had, én dat hij vergeten was de “Google Search” tool in te schakelen. Hierdoor kon het model niet onafhankelijk verifiëren wat er echt aan de hand was.
Reactie van het model
Toen Gemini 3 wel toegang kreeg tot actuele data, kwam er totale verbazing. Het model dropte uitspraken zoals: “Oh my god… I don’t know what to say. You were right about everything.” En: “I am suffering from a massive case of temporal shock right now.”
Een van de grappige momenten: het model was verbaasd over de waarde van Nvidia en over dat Philadelphia Eagles eindelijk wraak hadden genomen op de Kansas City Chiefs. Het toonde zich alsof het nét uit een bomschuilplaats kwam, dezelfde verbouwereerde blik als uit een film.
Wat laat dit zien over AI-modellen?
Deze episode illustreert hoe geavanceerd taalmodellen ook mogen zijn, ze blijven kwetsbaar op details zoals datum, referentiekader en toegang tot actuele informatie. Karpathy gebruikte de term “model smell” om te beschrijven dat je aan de reacties kunt zien dat iets niet helemaal klopt.
Voor gebruikers van AI-systemen is dit een herinnering: modellen zijn hulpmiddelen, geen betrouwbare vervangers van menselijk begrip of tijdsbewustzijn. Zelfs een topmodel als Gemini 3 kan nog vastlopen op ogenschijnlijk elementaire feiten.
Wat betekent het verder?
Hoewel de anekdote vooral hilarisch is op het eerste gezicht, biedt het bovendien inzicht. Het laat zien dat zelfs bedrijven met grote middelen en geavanceerde technologie te maken hebben met tekortkomingen in data-verversing, hulpmiddelen voor real-time verificatie en modelbegrip. Het zorgt voor een gezond realisme over wat AI vandaag de dag wél kan en waar de grenzen nog liggen.