Google leert AI anders denken met Bayesian teaching

Nieuws
maandag, 16 maart 2026 om 18:48
Google leert AI probabilistisch denken met Bayesian teaching
Google Research presenteert een nieuwe methode waarmee grote taalmodellen (LLM’s) beter leren redeneren met onzekerheid. De techniek heet Bayesian teaching en traint AI-systemen om beslissingen te nemen volgens de principes van Bayesiaanse statistiek.
Volgens onderzoekers Sjoerd van Steenkiste en Tal Linzen kan deze aanpak LLM’s veranderen van simpele patroonherkenners in adaptieve systemen die hun aannames voortdurend aanpassen op basis van nieuwe informatie.
Dit is belangrijk omdat AI-assistenten steeds vaker functioneren als interactieve agents. Denk aan persoonlijke aanbevelingen, klantenservice, digitale assistenten of medische triage. In al deze toepassingen moeten systemen continu inschatten hoe waarschijnlijk bepaalde voorkeuren of situaties zijn.
Zonder specifieke training blijken veel LLM’s daar verrassend slecht in te zijn.

Waarom huidige LLM’s moeite hebben met probabilistisch redeneren

LLM’s analyseren tekst en patronen in data. Maar dat betekent niet automatisch dat ze statistisch optimale beslissingen nemen wanneer nieuwe informatie binnenkomt.
De onderzoekers testten dit met een gesimuleerde aanbevelingsassistent voor vliegreizen.
In het experiment:
  • een gebruiker kreeg telkens drie vluchtopties
  • elke vlucht had kenmerken zoals prijs, duur, aantal stops en vertrektijd
  • de AI moest voorspellen welke vlucht de gebruiker zou kiezen
  • na elke ronde kreeg de AI feedback
Een ideaal systeem zou na elke interactie zijn inschattingen aanpassen.
Dat is precies wat Bayesiaanse inferentie beschrijft: een wiskundige methode om kansen bij te werken wanneer nieuwe informatie beschikbaar komt.
In de praktijk bleek echter:
  • LLM’s verbeteren nauwelijks na meerdere interacties
  • prestaties stagneren vaak na de eerste poging
  • modellen gebruiken simpele heuristieken, bijvoorbeeld altijd de goedkoopste optie
De prestaties bleven duidelijk achter bij een speciaal ontworpen Bayesian Assistant, die de optimale statistische strategie volgde.

Wat Bayesian teaching precies doet

De nieuwe methode probeert LLM’s niet direct de juiste antwoorden te laten leren. In plaats daarvan leren modellen het redeneerproces van een Bayesiaans systeem te imiteren.
Dat gebeurt via supervised fine-tuning, waarbij de AI voorbeelden krijgt van interacties tussen een gebruiker en een model dat Bayesiaanse redenering correct toepast.
De onderzoekers testten twee trainingsstrategieën.

1. Oracle teaching

Hier leert de AI van een systeem dat perfect weet wat de gebruiker wil en altijd de juiste keuze maakt.
Dit lijkt logisch, maar het leert het model weinig over onzekerheid of probabilistische afwegingen.

2. Bayesian teaching

Hier leert de AI van een model dat waarschijnlijkheden berekent en zijn voorspellingen steeds bijwerkt.
Dit model zit er in vroege rondes regelmatig naast, omdat het nog weinig informatie heeft.
Maar precies dat gedrag blijkt waardevol om te leren.
De AI leert zo:
  • onzekerheid modelleren
  • bewijs wegen
  • aannames bijstellen

Resultaten: AI leert statistisch redeneren

De resultaten zijn opvallend.
Na fine-tuning met Bayesian teaching:
  • verbeterde de nauwkeurigheid van LLM’s aanzienlijk
  • kwamen voorspellingen veel dichter bij het Bayesiaanse optimum
  • stemden AI-beslissingen in ongeveer 80 procent van de gevallen overeen met het Bayesiaanse model
Belangrijker nog: de aangeleerde redenering bleek niet taakgebonden.
Een model dat was getraind met vluchtgegevens kon dezelfde probabilistische logica toepassen op:
  • hotelaanbevelingen
  • webwinkelaankopen
  • andere aanbevelingssystemen
Dit wijst erop dat de AI niet simpelweg regels memoriseerde, maar daadwerkelijk een algemene redeneerstrategie internaliseerde.

Mogelijke impact voor AI-toepassingen

De implicaties voor AI-ontwikkeling zijn groot.
Veel AI-systemen moeten omgaan met incomplete of veranderende informatie. Denk aan:
  • persoonlijke AI-assistenten
  • aanbevelingsalgoritmen
  • medische besluitvorming
  • financiële analyse
  • autonome agents
Bayesiaans redeneren is in theorie al decennia de optimale methode om met onzekerheid om te gaan. Het probleem was altijd dat zulke modellen moeilijk schaalbaar zijn.
Met Bayesian teaching lijkt het mogelijk om die statistische logica in neurale netwerken te distilleren.
Dat kan leiden tot AI-systemen die:
  • beter omgaan met nieuwe informatie
  • realistischer omgaan met onzekerheid
  • flexibeler redeneren over verschillende domeinen

Wat dit zegt over de toekomst van LLM-training

Het onderzoek laat ook een bredere trend zien in AI-ontwikkeling.
Steeds vaker verschuift innovatie van modelarchitectuur naar post-training technieken. Daarbij leren modellen nieuwe vaardigheden door voorbeelden van gewenste redeneringen.
Volgens Google Research kan deze aanpak een krachtig mechanisme zijn om klassieke wiskundige of symbolische modellen te vertalen naar neurale netwerken.
Met andere woorden: AI kan leren denken als statistici, zonder dat de volledige wiskunde expliciet in het systeem wordt geprogrammeerd.
loading

Populair nieuws

Loading