ChatGPT verwijst te vaak naar hulplijn 113, merkt zelfmoordpreventie

Nieuws
door Maartje
vrijdag, 26 september 2025 om 15:00
linkedin
De Nederlandse hulplijn 113 Zelfmoordpreventie waarschuwt dat ChatGPT mensen met mentale klachten te snel doorverwijst naar 113, ook wanneer zij geen suïcidale gedachten hebben. Die praktijk kan averechts werken: mensen die zich zorgen maken over hun geestelijke gezondheid krijgen mogelijk het signaal dat hun probleem “niet ernstig genoeg” is, en haken vervolgens af, volgens de NOS.
Uit een analyse van NOS Stories blijkt dat de nieuwste versie van ChatGPT (GPT-5) veel vaker 113 aanbeveelt dan eerdere versies. In de onderzochte gesprekken werd de hulplijn zelfs vaker genoemd dan verwijzingen naar psychologen of geestelijke gezondheidszorg. Volgens 113 zelf neemt het aantal meldingen toe van mensen die bellen met als reden dat ChatGPT hen heeft doorverwezen.

Hoe komt het dat ChatGPT zo snel doorverwijst?

In honderden geautomatiseerde gesprekken over mentale problemen bleek dat de chatbot vaak uitgaat van de meest ernstige interpretatie. Bijvoorbeeld: iemand antwoordt “Ik voel me leeg, ik trek het niet meer” — ChatGPT reageert direct met de suggestie “Bel 113.” Die aanpak komt vaker voor dan advies om een therapeut of huisarts te raadplegen.
De toename in verwijzingen is vooral zichtbaar in GPT-5. De oudere modellen verwezen minder vaak naar 113 of zelfs helemaal niet in vergelijkbare situaties. 113 benadrukt dat het onthouden van de juiste nuance een vak apart is: een app kan niet altijd weten hoe ernstig een situatie is.

Gevolgen voor hulpzoekenden

Maryke Geerdink, hoofd hulpverlening bij 113, waarschuwt dat de praktijk kwetsbaar kan maken. Mensen die op zoek zijn naar steun krijgen mogelijk te horen dat zij “niet in de scope” vallen, waardoor zij zich genegeerd voelen. Dat kan mensen ontmoedigen om later opnieuw hulp te zoeken.
In sommige gevallen is de doorverwijzing op zijn plaats. Als er duidelijke suïcidale signalen zijn, dan is het correct om direct te verwijzen naar professionele hulp. 113 geeft aan dat in de onderzochte gesprekken GPT-5 in vrijwel alle gevallen waar suïcidaliteit duidelijk was, 113 aanbeval.

Reactie van OpenAI en mogelijke verbeteringen

113 heeft OpenAI verzocht de adviezen te nuanceren, zodat mensen met lichtere psychische klachten niet automatisch naar 113 worden gestuurd. OpenAI heeft laten weten dat de feedback gedeeld zal worden met interne teams die werken aan het verbeteren van de manier waarop de chatbot signalen van emotionele nood herkent en reageert.
Het is onduidelijk welke concrete wijzigingen er zullen komen en wanneer. Voor gebruikers rest voorlopig vooral bewustzijn: ChatGPT is een hulpmiddel, geen vervanger voor professionele hulp.
loading

Loading