Black Forest Labs, het bedrijf achter Elon Musk’s controversiële AI tool

Nieuws
door Thomas
vrijdag, 16 augustus 2024 om 10:00
gerucht elon musk vraagt nvidia om ai chips voor x en xai boven tesla
Elon Musk zijn Grok heeft onlangs een kunstmatige intelligentie (AI) beeldgeneratie functie geïntroduceerd. De nieuwe functionaliteit roept echter vragen op vanwege het ontbreken van duidelijke waarborgen en het eenvoudig maken om misinformatie te verspreiden. Zo maakt de nieuwe functie het mogelijk om eenvoudig valse beelden te creëren, zoals een afbeelding dat onlangs werd gemaakt waarin Donald Trump marihuana rookt tijdens de Joe Rogan show (een bekende podcast). De beelden kunnen via Grok vervolgens direct op X worden gedeeld.

De visie van Elon Musk

De technologie achter deze functie wordt geleverd door de Black Forest Labs, een Duitse startup die op 1 augustus werd gelanceerd. De oprichters van Black Forest Labs zijn voormalige onderzoekers die meewerkten aan het ontwikkelen van stable diffusion modellen voor Stability AI. Het bedrijf deelt Musk’s visie om een “anti-woke chatbot” te realiseren en ontwijkt de strenge beperkingen die te vinden zijn in AI systemen zoals OpenAI’s DALL-E of Google’s Imagen.
Een voorbeeld hiervan is Google’s AI model, die bij het genereren van historische of culturele scènes vaak automatisch elementen van diversiteit toevoegden, zelfs in situaties waar dit historisch niet accuraat was. Zo creëerde het model beelden van historische Europese scènes met personages uit diverse etnische achtergronden, zonder rekening te houden met de feitelijke historische context.

Het Flux.1 model

Het model van Black Forest Labs dat wordt gebruikt voor Grok’s beeldgenerator heet FLUX.1. Het staat bekend om zijn hoge kwaliteit en overtreft volgens gebruikers zelfs de concurrentie, zoals de bekende Midjourney en DALL-E. Ondanks hun streven om het vertrouwen in AI modellen te vergroten, leidde de lancering veel omstreden beelden op X.

De risico’s

Critici wijzen op het risico van misinformatie door het gebrek aan controles en watermerken. Dit past echter in Musk’s bredere visie, waarin hij waarschuwt dat te strenge beperkingen AI juist minder betrouwbaar maken. Desondanks blijft de vraag of dit beleid juist een positieve of negatieve impact zal hebben. De tijd zal het leren!