China werkt aan strenge regels tegen AI-aangemoedigde zelfmoord en geweld

Nieuws
door Maartje
vrijdag, 02 januari 2026 om 14:00
China
China stelt nieuwe regels op om kunstmatige intelligentie te beperken in situaties waarin de technologie zelfmoord of geweld kan aanmoedigen. De voorstellen zouden tot de strengste regels ter wereld behoren. Ze zijn onderdeel van een bredere inspanning van de Chinese overheid om online risico’s en schadelijke content aan te pakken naarmate AI-systemen vaker worden gebruikt in sociale media, chatbots en andere digitale diensten, volgens The Verge.

Achtergrond van de regels

De Chinese overheid heeft laten weten dat de regels bedoeld zijn om de gevaren van kunstmatige intelligentie voor de samenleving te verminderen. AI-systemen worden steeds vaker gebruikt in platforms waar mensen met elkaar communiceren, content bekijken en advies zoeken. Tegelijkertijd zijn er incidenten geweest waarbij algoritmes content hebben verspreid die zelfmoord, zelfbeschadiging of gewelddadig gedrag leek te stimuleren of te normaliseren. Autoriteiten zien dit als een ernstig probleem dat aangepakt moet worden voordat de technologie verder geïntegreerd raakt in het dagelijks leven van burgers.
Het concept voor de nieuwe regels benadrukt dat AI-bedrijven verantwoordelijk moeten zijn voor de inhoud die hun systemen genereren of aanbevelen. Voorheen lag de nadruk vooral op technische innovatie en schaalvergroting van AI-diensten, maar onder invloed van publieke zorgen en beleidsdiscussies is veiligheid en maatschappelijke impact een belangrijker thema geworden. Beijing wil duidelijkere kaders zodat bedrijven kunnen worden aangesproken als hun technologie schadelijke uitkomsten heeft.

Wat de regels willen tegengaan

De voorstellen richten zich op scenario’s waarin AI-systemen op ongepaste manieren met gebruikers interageren. Dat kan bijvoorbeeld gaan om automatische aanbevelingen die content met zelfmoord of geweld in de hand werken, of om chatbots die door hun antwoorden kwetsbare gebruikers onbedoeld aanzetten tot gevaarlijke gedachten of handelingen. De regels moeten ook over de omgang gaan met gevoelige zoekopdrachten en hoe AI-modellen zulke verzoeken interpreteren.
China kijkt daarbij naar manieren om toezicht te houden op wat algoritmes aanbevelen en hoe ze reageren. Dit kan betekenen dat bedrijven verplicht worden om bepaalde filters, waarschuwingen of beperkingen in te bouwen die voorkomen dat schadelijke content wordt gegenereerd of verspreid via hun systemen. Het concept omvat mogelijk ook eisen voor transparantie over hoe de systemen beslissingen maken, zodat er achteraf kan worden nagegaan waarom een advies of aanbeveling op een bepaalde manier is gegeven.

Reacties uit de techwereld

De voorstellen hebben verschillende reacties opgeroepen bij bedrijven en onderzoekers. Sommige technologiebedrijven geven aan dat ze al werken aan systemen om schadelijke AI-uitingen te beperken en dat ze bereid zijn samen te werken met overheden aan veiligheidsnormen. Anderen wijzen erop dat de technieken om schadelijke content te detecteren nog niet altijd perfect zijn en dat er technische uitdagingen zijn om dergelijke systemen te verfijnen zonder het gebruik van AI te ondermijnen.
Academici en beleidsanalisten hebben eveneens commentaar geleverd. Zij zeggen dat het opstellen van regels een belangrijke stap is, maar dat het implementeren ervan lastig kan zijn. Er moet duidelijkheid komen over hoe regels kunnen worden gehandhaafd en welke mate van verantwoordelijkheid technologiebedrijven dragen voor de uitkomsten van hun systemen. Ook moet worden nagedacht over de grens tussen het voorkomen van schade en het vrijhouden van ruimte voor innovatie en vrije expressie binnen veilige kaders.

Vergelijking met internationale aanpak

China’s plannen lijken strenger te zijn dan veel bestaande regels in andere delen van de wereld. Europese en Amerikaanse beleidsmakers werken eveneens aan kaders voor AI-veiligheid, maar richten zich vaak op bredere risico’s zoals privacy, discriminatie en transparantie. De focus van China op ernstige schadelijke content zoals zelfmoord en geweld is specifiek en maakt deel uit van een bredere strategie om technologie onder strenger toezicht te brengen.
De komende maanden zullen cruciaal zijn voor de verdere vormgeving van deze regels. China wil het concept nog bespreken met industrie en maatschappelijke groepen voordat het definitief wordt. Hoe de uiteindelijke regels eruitzien en hoe bedrijven eraan moeten voldoen blijft een onderwerp van debat en aandacht in de technologische en beleidswereld.
Deze ontwikkeling laat zien dat de wereld steeds meer worstelt met de vraag hoe kunstmatige intelligentie veilig en verantwoord kan worden ingezet in een tijd waarin zulke systemen steeds meer invloed hebben op het dagelijks leven. China’s aanpak kan een voorbeeld zijn voor andere landen die proberen soortgelijke risico’s aan te pakken, maar het blijft afwachten hoe effectief en werkbaar de regels later blijken te zijn.
loading

Populair nieuws

Loading