Cybercriminelen maken al gebruik van diverse
kunstmatige intelligentie (AI) tools om misbruik te maken van slachtoffers. Zo kunnen scammers de stemmen nabootsen van familieleden om mensen te misleiden. Hiervoor hebben ze tegenwoordig maar schokkend weinig geluidsmateriaal nodig om een
AI mee te trainen. Daarnaast zien we al meerdere jaren dat deepfakes worden ingezet om politieke desinformatie te verspreiden of om individuen te chanteren.
OpenAI probeert het scammers zo lastig mogelijk te maken. Zo komen de video's van Sora altijd met een visuele watermerk. Daarnaast zijn er verschillende restricties. Zo weigert de AI tool om bekende mensen of merken af te beelden. Ook expliciete of gewelddadige content is logischerwijs verboden. De maatregelen moeten ervoor zorgen dat de technologie op een verantwoorde manier wordt gebruikt en misbruik zoveel mogelijk wordt voorkomen.
Nog een weg te gaan
Ondanks de zorgen, is Sora op het moment waarschijnlijk nog niet goed genoeg om mensen te misleiden. Wie met de tool aan de haal gaat zal zien dat het op bepaalde vlakken uitstekend presteert, maar dat het op verschillende gebieden ook zijn beperkingen heeft. Het is bijvoorbeeld bijzonder goed in het genereren van natuurbeelden. Echter, bij het afbeelden van mensen in beweging ondervindt de AI meer moeite. Vaak bewegen mensen in een soort slow motion en mist de tool de benodigde context. Hierdoor bewegen mensen soms op onlogische wijze, negeren ze de natuurwetten, en wisselen de benen van personen soms zonder verklaring.