Kagi bestrijdt AI-slop met SlopStop: gebruikers helpen zoekmachine om AI-content te weren

Nieuws
vrijdag, 14 november 2025 om 12:22
stopslop
De privacygerichte zoekmachine Kagi introduceert een nieuw systeem om lage-kwaliteit AI-content, ook wel ‘AI-slop’, actief te bestrijden. Met de functie SlopStop kunnen gebruikers aangeven welke webpagina’s, afbeeldingen of video’s volgens hen door kunstmatige intelligentie zijn gegenereerd. Die meldingen helpen Kagi om dergelijke content lager in de zoekresultaten te plaatsen of zelfs te verwijderen.

SlopStop: een nieuw wapen tegen AI-overvloed

De nieuwe tool SlopStop verschijnt als knop bij zoekresultaten. Gebruikers kunnen hiermee aangeven dat een item mogelijk AI-gegenereerde inhoud van lage kwaliteit bevat. Het bedrijf verwijst met de term slop naar het snel geproduceerde, oppervlakkige materiaal dat internet steeds meer overspoelt sinds generatieve AI breed toegankelijk is geworden.
Kagi noemt AI-slop zelfs “een existentiële bedreiging voor het internet”. Volgens het bedrijf vervuilt de toestroom aan automatisch geschreven teksten, afbeeldingen en video’s de zoekresultaten, waardoor menselijke kennis en creativiteit steeds moeilijker te onderscheiden zijn.

Menselijke controle blijft deel van het proces

Na een melding van een gebruiker voert Kagi altijd een handmatige controle uit om te bevestigen dat het inderdaad om AI-content gaat.
  • Als dat wordt bevestigd, daalt het betreffende zoekresultaat in de ranking of verdwijnt het geheel uit de index.
  • Wanneer de content slechts gedeeltelijk door AI is gemaakt, krijgt het resultaat enkel een label “AI-slop”, maar blijft het vindbaar.
Op die manier wil Kagi voorkomen dat legitieme contentmakers ten onrechte worden afgestraft. Transparantie over herkomst staat centraal: gebruikers zien in de zoekinformatie direct of iets als AI-slop is aangemerkt.

Gebruikersdata vormt basis voor AI-detector van Kagi

De meldingen die gebruikers doen, vormen de bouwstenen voor een nieuwe dataset. Die dataset wordt gebruikt om Kagi’s eigen AI-detectiesysteem te trainen dat automatisch kan herkennen of content door generatieve modellen is geproduceerd.
Kagi zegt de database op termijn ook beschikbaar te willen stellen voor externe partijen, zodat andere ontwikkelaars en onderzoeksinstellingen het systeem kunnen gebruiken in hun strijd tegen AI-vervuiling.
Het bedrijf benadrukt dat deze aanpak past bij zijn privacy-first-filosofie: gebruikersdata wordt niet verkocht of commercieel gebruikt, maar ingezet om de kwaliteit van zoekresultaten te verbeteren.

Context: zoekmachines worstelen met AI-content

Kagi is niet de enige zoekmachine die zoekt naar manieren om AI-content te filteren. Ook Google en Bing experimenteren met AI-contentlabels en algoritmische aanpassingen die generatieve spam moeten onderdrukken.
Het verschil is dat Kagi expliciet de community betrekt bij het opschonen van zoekresultaten. Daarmee volgt het bedrijf een meer gedecentraliseerde aanpak, waarbij gebruikers samen bepalen wat waardevol is en wat niet.
Volgens experts kan zo’n systeem, mits goed uitgevoerd, helpen om het internet weer overzichtelijker en betrouwbaarder te maken, een groeiende uitdaging nu steeds meer webinhoud synthetisch wordt gegenereerd.
loading

Populair nieuws

Loading