Google AI-overzichten bevatten fouten én misleiden met bronnen

Nieuws
donderdag, 09 april 2026 om 6:30
Google zet waarheid onder druk AI-overzichten bevatten fouten én misleiden met bronnen
Google AI-overzichten beïnvloeden wat gebruikers als waarheid zien en bevatten structureel fouten. Onderzoek van Oumi, gepubliceerd via The New York Times, toont aan dat circa 10 procent van de antwoorden onjuist is. Tegelijk blijkt dat meer dan de helft van de correcte antwoorden slecht onderbouwd is, waardoor controle vrijwel onmogelijk wordt.
Deze ontwikkeling markeert een fundamentele verschuiving: Google bepaalt steeds vaker zelf welke informatie gebruikers zien, zonder dat zij nog doorklikken naar originele bronnen.

Hoe verandert Google van zoekmachine naar informatiepoortwachter?

Google AI-overzichten zijn directe antwoorden die bovenaan zoekresultaten verschijnen. Deze antwoorden worden gegenereerd door het AI-model Gemini en vervangen in toenemende mate traditionele links.
Dit betekent dat Google niet langer alleen informatie indexeert, maar ook selecteert, samenvat en presenteert als eindantwoord.
De impact is direct:
  • Gebruikers klikken minder door naar websites
  • Google bepaalt welke bronnen zichtbaar blijven
  • Informatie wordt gefilterd via één AI-laag
Deze verschuiving verandert Google in een actieve speler in informatievoorziening, in plaats van een neutrale tussenpartij.

Hoe betrouwbaar is die nieuwe informatiepositie?

De betrouwbaarheid van AI-overzichten ligt tussen de 85 en 91 procent. Dat betekent dat ongeveer 1 op de 10 antwoorden feitelijk onjuist is.
Belangrijker is echter een tweede bevinding: meer dan 50 procent van de correcte antwoorden is “ungrounded”.
Dit betekent dat:
  • Bronnen de informatie niet volledig ondersteunen
  • Bronnen tegenstrijdig zijn
  • Of bronnen ontbreken
Hierdoor ontstaat een nieuwe situatie waarin informatie correct lijkt, maar moeilijk te verifiëren is.

Waarom “correct maar oncontroleerbaar” een groter probleem is dan fouten

Een fout antwoord is zichtbaar en kan worden gecorrigeerd. Een correct maar slecht onderbouwd antwoord creëert schijnzekerheid.
Dit is het kernprobleem van generatieve AI:
  • Het systeem klinkt overtuigend
  • Het antwoord lijkt compleet
  • Maar de onderliggende waarheid is onduidelijk
Volgens het onderzoek citeert Google regelmatig platforms zoals Facebook en Reddit, zelfs bij foutieve antwoorden. Deze bronnen zijn minder betrouwbaar dan traditionele nieuws- of kennisbronnen.
Hierdoor verschuift autoriteit van gecontroleerde media naar algoritmisch geselecteerde content.

Hoe AI de waarheid kan vervormen, zelfs met juiste bronnen

AI-overzichten maken niet alleen fouten, maar interpreteren informatie ook verkeerd.
Concrete voorbeelden uit het onderzoek:
  • Een museumopening werd verkeerd gedateerd door tegenstrijdige bronnen
  • Een rivier werd verkeerd geplaatst ondanks correcte bronvermelding
  • Een biografisch antwoord bevatte correcte kerninformatie, maar foutieve details
Daarnaast kan AI extra informatie toevoegen die niet klopt, zelfs wanneer het hoofdantwoord juist is.
Dit maakt het voor gebruikers moeilijk om feit en interpretatie te onderscheiden.

Waarom schaal dit probleem systemisch maakt

Google verwerkt meer dan 5 biljoen zoekopdrachten per jaar. Hierdoor vertaalt een foutpercentage van 10 procent zich naar enorme volumes.
De gevolgen:
  • Tientallen miljoenen fouten per uur
  • Honderdduizenden fouten per minuut
Maar belangrijker: ook correcte maar slecht onderbouwde antwoorden verspreiden zich op dezelfde schaal.
Dit betekent dat niet alleen fouten, maar ook twijfelachtige informatie exponentieel groeit.

Kan informatie actief gemanipuleerd worden?

Ja, en dat is een cruciaal risico.
Het onderzoek toont aan dat AI-overzichten gevoelig zijn voor manipulatie via online content. Een simpele blogpost kan voldoende zijn om als “bron” te worden gebruikt.
Een experiment liet zien dat een verzonnen verhaal binnen een dag door Google werd overgenomen als feitelijke informatie.
Dit betekent:
  • Individuen kunnen hun eigen autoriteit creëren
  • AI kan deze informatie versterken
  • Gebruikers krijgen dit gepresenteerd als waarheid

Wat betekent dit voor Nederland?

In Nederland zijn AI-overzichten inmiddels actief en veranderen ze de digitale economie.
De belangrijkste effecten:
  • Minder verkeer naar Nederlandse nieuws- en contentwebsites
  • Grotere afhankelijkheid van Google voor zichtbaarheid
  • Verschuiving van SEO naar AI-optimalisatie
Voor mediabedrijven betekent dit dat hun rol als primaire informatiebron onder druk komt te staan.
Voor gebruikers betekent het dat informatie steeds vaker via één partij wordt gefilterd.

Waarom dit debat verder gaat dan technologie

De discussie over AI-overzichten gaat niet alleen over nauwkeurigheid, maar over macht.
De kernvraag is: wie bepaalt wat waar is op internet?
Google combineert drie rollen:
  • Distributeur van informatie
  • Samenvatter van informatie
  • Interpreter van informatie
Dit maakt het bedrijf tot een centrale speler in kennisvorming.
Zelfs als de technologie verbetert, blijft deze machtsconcentratie bestaan.

Conclusie: AI maakt Google tot de nieuwe poortwachter van waarheid

Google AI-overzichten zijn technisch indrukwekkend, maar brengen structurele risico’s met zich mee. Ongeveer 10 procent van de antwoorden is onjuist en een groot deel van de rest is moeilijk te verifiëren.
De grootste verschuiving zit niet in fouten, maar in controle:
  • Gebruikers zien minder bronnen
  • Informatie wordt vooraf gefilterd
  • Waarheid wordt samengevat door één systeem
De opkomst van AI in zoekmachines verandert daarmee niet alleen hoe we zoeken, maar ook hoe we weten wat waar is.
loading

Populair nieuws

Laatste reacties

Loading