Automatische vertalingen met kunstmatige intelligentie zorgen voor onverwachte problemen op
Wikipedia. Volgens onderzoek van journalisten en vrijwilligers voegen sommige AI-vertalingen nieuwe informatie toe die nooit in het oorspronkelijke artikel stond. Dat kunnen verkeerde citaten zijn, verzonnen bronnen of extra zinnen zonder duidelijke herkomst. Het probleem werd zichtbaar toen vrijwilligers opmerkten dat bepaalde vertaalde artikelen fouten bevatten die niet in de originele tekst voorkwamen.
Lees hier het originele artikel.
Wanneer vertalingen nieuwe feiten verzinnen
De problemen kwamen aan het licht toen
Wikipedia-redacteuren vertaalde artikelen begonnen te controleren. Sommige vertalingen bleken nieuwe passages te bevatten die niet overeenkwamen met de bron. In andere gevallen stonden er verwijzingen naar boeken of pagina’s die niets met het onderwerp te maken hadden.
Een voorbeeld dat editors ontdekten ging over een artikel over een Franse adellijke familie. In de vertaalde versie werd een boek en een specifieke pagina genoemd als bron. Toen een redacteur het boek controleerde, bleek dat die pagina helemaal niet over die familie ging. In andere gevallen werden complete paragrafen toegevoegd die afkomstig waren uit totaal andere teksten.
Dit soort fouten worden vaak “hallucinaties” genoemd in de wereld van kunstmatige intelligentie. Daarmee bedoelen onderzoekers dat een model informatie produceert die geloofwaardig klinkt maar feitelijk onjuist is. Zulke fouten ontstaan wanneer een AI probeert ontbrekende details op te vullen of patronen te voorspellen zonder dat de juiste gegevens beschikbaar zijn.
Vertaalprojecten met AI
Een deel van de vertaalde artikelen kwam van een project dat vertalers betaalt om Wikipedia-artikelen in andere talen beschikbaar te maken. Daarbij wordt gebruikgemaakt van grote taalmodellen die automatisch teksten vertalen en herschrijven. Het idee achter deze aanpak is om sneller meer artikelen beschikbaar te maken in kleinere talen.
Het probleem is dat snelheid niet altijd samengaat met nauwkeurigheid. Sommige vrijwilligers ontdekten dat vertalers de AI-resultaten niet grondig controleerden voordat ze werden gepubliceerd. Daardoor bleven fouten staan die anders mogelijk zouden zijn opgemerkt.
Volgens editors ging het niet alleen om kleine taalproblemen, maar soms om verkeerde bronnen of volledig verzonnen details. Dat kan gevolgen hebben voor de betrouwbaarheid van een artikel, vooral omdat Wikipedia vaak als naslagwerk wordt gebruikt.
Reactie van de Wikipedia-gemeenschap
De ontdekte fouten hebben geleid tot nieuwe discussies binnen de Wikipedia-gemeenschap over het gebruik van AI. Sommige redacteuren hebben voorgesteld om strengere regels te hanteren voor automatische vertalingen. In bepaalde gevallen zijn bijdragen van vertalers beperkt of extra gecontroleerd.
Wikipedia draait grotendeels op vrijwilligers die artikelen schrijven en controleren. Als nieuwe technologieën veel fouten genereren, kan dat extra werk opleveren voor die vrijwilligers. Daarom proberen editors manieren te vinden om AI-gebruik te combineren met menselijke controle.
Het probleem is niet volledig nieuw. Sinds de opkomst van generatieve AI hebben Wikipedia-redacteuren vaker te maken gehad met teksten die door algoritmes zijn geschreven of vertaald. Sommige artikelen bevatten bijvoorbeeld fictieve referenties of onnauwkeurige citaten, wat het moeilijker maakt om de betrouwbaarheid van de inhoud te beoordelen.
Grotere vraag over AI en kennis
Het incident laat zien dat AI-tools nuttig kunnen zijn, maar ook nieuwe risico’s met zich meebrengen voor platforms die afhankelijk zijn van betrouwbare informatie. Wanneer een AI tijdens een vertaling details verandert of toevoegt, kan dat ongemerkt nieuwe fouten introduceren.
Voor Wikipedia is dat een belangrijk vraagstuk. Het platform probeert informatie uit betrouwbare bronnen te verzamelen en te controleren. Als automatische systemen teksten sneller produceren dan mensen ze kunnen controleren, kan dat de druk op het systeem vergroten.