Google past AI aan na ophef: Eet stenen, paarden met zes benen en rennen met een schaar

Nieuws
vrijdag, 31 mei 2024 om 18:59
google past ai aan na ophef eet stenen paarden met zes benen en rennen met een schaar
Google heeft onlangs de AI-integraties in zijn zoekresultaten gedeeltelijk teruggedraaid na enkele opmerkelijke fouten in de antwoorden die door de AI Overviews werden gegenereerd. Gebruikers meldden dat de zoekmachine antwoorden gaf zoals dat een paard zes voeten zou kunnen hebben, mensen dagelijks kleine porties steen moeten eten, en dat pizzakaas goed vastgelijmd moet worden​.
In de recente aanpassingen aan de AI-infrastructuur van Google, zijn diverse maatregelen getroffen om de betrouwbaarheid en nauwkeurigheid van AI-overzichten te verbeteren. Deze aanpassingen richten zich op het beperken van misleidende en onjuiste informatie, met speciale aandacht voor gevoelige onderwerpen zoals nieuws en gezondheid. De volgende stappen zijn genomen volgens een blogpost van Google:
  1. Detectiemechanismen voor onzinnige zoekopdrachten:Er zijn verbeterde detectiemechanismen geïmplementeerd om onzinnige zoekopdrachten te identificeren en te voorkomen dat hiervoor een AI-overzicht wordt weergegeven..
  2. Beperking van satire en humor:De opname van satire- en humorcontent in AI-overzichten is beperkt om verwarring en misleidende informatie te minimaliseren.
  3. Beperking van door gebruikers gegenereerde inhoud:Systemen zijn bijgewerkt om het gebruik van door gebruikers gegenereerde inhoud in antwoorden te beperken, vooral wanneer deze inhoud misleidend advies zou kunnen geven.
  4. Beperkingen voor minder nuttige AI-overzichten:Er zijn triggerbeperkingen toegevoegd voor zoekopdrachten waarbij AI-overzichten niet nuttig bleken te zijn, om de relevantie en kwaliteit van de zoekresultaten te waarborgen.
  5. Strenge waarborgen voor nieuws en gezondheid:Voor nieuws en gezondheid zijn er sterke waarborgen ingesteld. AI-overzichten worden niet weergegeven voor harde nieuwsartikelen, waarbij actualiteit en feitelijkheid cruciaal zijn. Voor gezondheidsgerelateerde zoekopdrachten zijn extra verfijningen doorgevoerd om de kwaliteit en betrouwbaarheid te verbeteren.
Deze aanpassingen laten zien dat er een voortdurende inspanning is om de prestaties van AI in zoekmachines te verfijnen, met een duidelijke focus op het vermijden van misleidende informatie en het verbeteren van de gebruikerservaring. Dit is vooral belangrijk in een tijd waarin AI steeds meer geïntegreerd wordt in alledaagse zoekopdrachten en informatievoorziening.

Gekke antwoorden van AI

Hieronder vind je een aantal voorbeelden om het beeld te schetsen. Sarcasme en andere 'gekke' vragen worden niet altijd goed beantwoord.

Google erkent fouten met AI

Liz Reid, hoofd van Google Search, erkende deze fouten en gaf aan dat de AI moeite heeft met het begrijpen van humor, satire, understatement, dubbelzinnigheid, nuances en onzinnige vragen. Dit gebrek aan menselijk inzicht leidde tot de beslissing om de AI-overzichten selectiever te maken. Vanaf nu zullen deze overzichten alleen verschijnen als de AI zeker is van de informatie​.
Het probleem ligt in de manier waarop de AI-overzichten werken, die anders zijn dan chatbots. Deze overzichten genereren geen antwoorden direct uit trainingsdata, maar gebruiken een op maat gemaakt taalmodel dat geïntegreerd is in het webrankingsysteem van Google om relevante antwoorden met links te bieden​. Dit verschil benadrukt de complexiteit en de uitdaging van het integreren van AI in zoekmachines, waar nauwkeurigheid en relevantie van essentieel belang zijn.
Door deze aanpassingen hoopt Google de kwaliteit van de zoekresultaten te verbeteren en gebruikers een betrouwbaardere zoekervaring te bieden, waarbij AI-overzichten alleen worden weergegeven wanneer de informatie met hoge zekerheid kan worden verstrekt​. Tegelijkertijd is het ook wel grappig om dit soort bizarre antwoorden te krijgen. In de wereld van AI is er nog veel te leren en aan te passen, daar hoort het testen door klanten ook bij.