Nee, ChatGPT heeft geen grote wiskundige puzzel opgelost: Erdős-probleem blijft bestaan

Nieuws
woensdag, 29 april 2026 om 7:00
Heeft ChatGPT een 60 jaar oud Erdős-probleem ‘opgelost’ Dit is er echt gebeurd
Een virale claim dat ChatGPT een decennia-oud Erdős-probleem heeft “opgelost”, verspreidt zich snel. De werkelijkheid is nuchterder. Er is geen bevestigde doorbraak in de wiskunde, maar deze episode markeert wel een betekenisvolle verschuiving in hoe AI-gegenereerd redeneren wordt gezien en gebruikt.

Wat er echt gebeurde

De claim komt voort uit een gedeeld ChatGPT-gesprek waarin het model een wiskundig betoog geeft over een open probleem op erdosproblems.com. De output oogt gestructureerd, gebruikt geavanceerde notatie en lijkt bekende resultaten uit te bouwen.
Dat heeft sommige lezers doen concluderen dat het probleem is opgelost.
Daar is geen bewijs voor.
Problemen van dit type vereisen:
  • een formele uitwerking in een paper
  • verificatie door meerdere experts
  • aanhoudende toetsing binnen de wiskundige gemeenschap
Aan geen van die voorwaarden is voldaan. Zonder dat geldt er geen enkele aanspraak op een “oplossing”.
chatgpt loste het op

Waar de claim stukloopt

Een nadere blik op het gegenereerde betoog laat zien waarom de conclusie voorbarig is.
Het model presenteert zijn resultaat als:
  • “men kan iets sterkers bewijzen”
  • gevolgd door een asymptotische ongelijkheid met big-O-notatie
Dit is kenmerkend voor heuristische of gedeeltelijke redeneringen, niet voor definitieve bewijzen.
Specifiek geldt:
  • asymptotische grenzen lossen niet automatisch de volledige structuur van een combinatorisch probleem op
  • de redenering leunt op ongelijkheden die mogelijk niet uniform gelden in alle vereiste gevallen
  • kritieke stappen worden gesteld zonder volledige verantwoording
In de geavanceerde wiskunde zijn dit geen details. Eén niet-onderbouwde stap maakt het hele resultaat ongeldig.
In het beste geval heeft het model opgeleverd:
  • een plausibele schets
  • een recombinatie van bekende technieken
  • mogelijk een herformulering van bestaande deelresultaten
Dat is categorisch iets anders dan het oplossen van een open probleem.

Waarom de output overtuigend oogt

De reactie is begrijpelijk.
Moderne taalmodellen kunnen:
  • de structuur van formele bewijzen reproduceren
  • bekende technieken in nieuwe combinaties toepassen
  • lange ketens van symbolisch redeneren volhouden
Voor niet-specialisten is dat niet te onderscheiden van echte wiskundige vooruitgang.
Maar wiskundige geldigheid draait niet om stijl. Ze draait om strengheid onder toetsing. In die kloof tussen uiterlijk en verificatie ontstaat de verwarring.

Wat dit zegt over AI-vermogen

Het belangrijkste signaal is niet de onjuiste claim, maar het type output dat haar uitlokte.
Het model toont:
  • coherente redenering over meerdere stappen
  • vertrouwdheid met geavanceerde wiskundige hulpmiddelen
  • het vermogen om patronen uit te breiden voorbij directe memorisatie
Dat gaat in de praktijk verder dan eenvoudig tekstvoorspellen. Het laat zien dat AI-systemen nu kandidaat-redeneerpaden in technische domeinen kunnen genereren.
Maar genereren is geen begrijpen, en het is geen bewijs.

De echte flessenhals: verificatie

Deze episode markeert een structurele verschuiving.
AI-systemen worden goed in:
  • het produceren van plausibele bewijzen
  • het aandragen van strategieën
  • het snel verkennen van de oplossingsruimte
Maar verificatie blijft:
  • traag
  • afhankelijk van experts
  • onverbiddelijk
In de wiskunde en andere domeinen met hoge inzet is de beperkende factor niet langer idee-generatie, maar validatie.

Waarom dit ertoe doet

Voor bestuurders, onderzoekers en beleidsmakers is de implicatie praktisch. AI-hulpmiddelen zullen steeds vaker output produceren die:
  • er correct uitziet
  • gezaghebbend klinkt
  • domeinexpertise vereist om te valideren
Dat creëert nieuwe risico’s:
  • te veel vertrouwen in vloeiende output
  • fouten versneld in besluitvorming brengen
  • vermogen overschatten op basis van presentatiekwaliteit
En nieuwe kansen:
  • snellere hypothesevorming
  • verrijkte onderzoeksworkflows
  • vroegere detectie van veelbelovende richtingen
De beperking verschuift van toegang tot ideeën naar het vermogen ze te filteren.

Wat nu in de gaten te houden

Er zijn drie concrete ontwikkelingen om te volgen:
  1. Of wiskundigen het specifieke, door ChatGPT gegenereerde betoog formeel analyseren
  2. De opkomst van tools die helpen bij bewijsverificatie, niet alleen generatie
  3. Hybride werkprocessen waarin AI voorstelt en experts op schaal valideren
Als het betoog iets echt nieuws bevat, zal dat via dit proces boven komen drijven. Zo niet, dan zal het geruisloos instorten onder toetsing, zoals vele plausibele bewijzen doen.

De kern

ChatGPT heeft geen 60 jaar oud Erdős-probleem opgelost.
Maar het produceerde wel iets dat genoeg op een bewijs leek om duizenden mensen te overtuigen dat het mogelijk was.
Die kloof tussen overtuigende output en geverifieerde waarheid is nu een van de belangrijkste realiteiten in toegepaste AI.
loading

Populair nieuws

Laatste reacties

Loading