Moeten we ons zorgen maken over OpenAI’s nieuwe video generator Sora?

Nieuws
door Thomas
woensdag, 11 december 2024 om 14:00
wat is kling ai de uitdager van sora om videos te maken
Cybercriminelen maken al gebruik van diverse kunstmatige intelligentie (AI) tools om misbruik te maken van slachtoffers. Zo kunnen scammers de stemmen nabootsen van familieleden om mensen te misleiden. Hiervoor hebben ze tegenwoordig maar schokkend weinig geluidsmateriaal nodig om een AI mee te trainen. Daarnaast zien we al meerdere jaren dat deepfakes worden ingezet om politieke desinformatie te verspreiden of om individuen te chanteren.
OpenAI probeert het scammers zo lastig mogelijk te maken. Zo komen de video's van Sora altijd met een visuele watermerk. Daarnaast zijn er verschillende restricties. Zo weigert de AI tool om bekende mensen of merken af te beelden. Ook expliciete of gewelddadige content is logischerwijs verboden. De maatregelen moeten ervoor zorgen dat de technologie op een verantwoorde manier wordt gebruikt en misbruik zoveel mogelijk wordt voorkomen.

Nog een weg te gaan

Ondanks de zorgen, is Sora op het moment waarschijnlijk nog niet goed genoeg om mensen te misleiden. Wie met de tool aan de haal gaat zal zien dat het op bepaalde vlakken uitstekend presteert, maar dat het op verschillende gebieden ook zijn beperkingen heeft. Het is bijvoorbeeld bijzonder goed in het genereren van natuurbeelden. Echter, bij het afbeelden van mensen in beweging ondervindt de AI meer moeite. Vaak bewegen mensen in een soort slow motion en mist de tool de benodigde context. Hierdoor bewegen mensen soms op onlogische wijze, negeren ze de natuurwetten, en wisselen de benen van personen soms zonder verklaring.
Plaats reactie