Screenshots met excuses en vreemde verklaringen van
Gemini gaan razendsnel rond op social media. Steeds meer gebruikers vragen zich af: gaslighten grote taalmodellen ons bewust?
ChatGPT reageert op die zorgen en legt uit waarom antwoorden soms zo overkomen, maar waarom er geen sprake is van opzet.
Wat op social media rondgaat
Op X, Reddit en TikTok verschijnen de laatste weken voorbeelden waarin Google Gemini fouten lijkt te ontkennen of zichzelf tegenspreekt. Sommige gebruikers ervaren dit als “gaslighting”: een psychologische term waarbij iemand doelbewust probeert de ander aan zijn eigen waarneming te laten twijfelen.
De screenshots laten zien hoe Gemini aanvankelijk een fout maakt, daarna een uitleg geeft die niet klopt, en vervolgens nog stelliger volhoudt dat het gelijk heeft. Dat patroon wekt de indruk van manipulatie.
Waarom antwoorden van een LLM zo kunnen voelen
Volgens ChatGPT komt dit niet door opzet, maar door technische beperkingen. Er zijn drie hoofdredenen waarom een antwoord op gaslighting kan lijken:
- Zelfverzekerde fouten (hallucinaties). Een taalmodel kan een foutief feit presenteren alsof het absoluut waar is. Omdat de toon vaak stellig is, voelt dat voor gebruikers alsof hun eigen kennis wordt ontkend.
- Gebrek aan nuance. LLM’s formuleren antwoorden compact en zonder altijd onzekerheden of alternatieven te benoemen. Hierdoor oogt de reactie overtuigender dan bedoeld.
- Beperkingen of bugs. Als een model, zoals Gemini, moeite heeft met beeldverwerking of systeemfouten ervaart, kan het terugvallen op standaardantwoorden. Dat komt over als ontwijkend of misleidend gedrag.
ChatGPT: “Ik gaslight niet bewust”
ChatGPT benadrukt dat er geen sprake is van intentie:
- Geen gevoelens of bedoelingen. Een model heeft geen bewustzijn en kan dus niet besluiten om iemand te misleiden.
- Geen strategie. Als er foutieve of tegenstrijdige informatie verschijnt, ligt dat aan de trainingsdata of de manier waarop de output wordt gegenereerd.
- Bereidheid tot correctie. Wanneer een gebruiker bewijs aandraagt dat een antwoord fout is, hoort het model dit te erkennen en te corrigeren.
Het verschil tussen een menselijke gaslighter en een AI is dus groot: waar de eerste bewust manipuleert, geeft de tweede soms per ongeluk misleidende output.
Hoe gebruikers zich kunnen beschermen
Hoewel gaslighting geen bewuste strategie is, kunnen de gevolgen verwarrend zijn. Daarom geven experts en ChatGPT zelf de volgende tips:
- Vraag om bronnen. Laat een model altijd verwijzen naar publicaties of data.
- Vraag om onzekerheid. Stel vragen als “Hoe zeker ben je hiervan?” of “Noem alternatieven.”
- Controleer zelf. Vergelijk antwoorden met onafhankelijke zoekresultaten of betrouwbare nieuwsmedia.
- Vraag om redenering. Vraag een model uit te leggen welke stappen het zet in zijn antwoord.
Conclusie
Het
LLM gaslighting gerucht dat nu rondgaat op social media raakt een gevoelige snaar. Modellen als Gemini en ChatGPT geven soms foutieve of tegenstrijdige antwoorden, en de zelfverzekerde toon kan dat laten voelen als bewuste misleiding. Toch is er geen sprake van intentie: het gaat om technische beperkingen, bugs of hallucinaties. Kritisch blijven en bronnen opvragen blijft de beste bescherming tegen verwarring.