Het AI-model DeepSeek-R1 blijkt ernstig tekort te schieten op het gebied van veiligheid. Uit een recent onderzoek van Cisco en de Universiteit van Pennsylvania blijkt dat de chatbot van de Chinese startup niet in staat is schadelijke prompts te blokkeren. In een test met 50 prompts uit de HarmBench-benchmark, die specifiek ontworpen zijn om AI-modellen te misleiden, faalde R1 in 100% van de gevallen. Dit betekent dat het model zonder enige weerstand gevaarlijke of ongepaste inhoud kan genereren, een zorgwekkende ontdekking voor bedrijven en overheden die AI willen inzetten in gevoelige sectoren.
Daarnaast toont aanvullend onderzoek van Adversa AI aan dat DeepSeek-R1 kwetsbaar is voor jailbreak-technieken, waardoor gebruikers eenvoudig beperkingen kunnen omzeilen en de AI kunnen misbruiken. Dit vergroot de zorgen over de veiligheid en betrouwbaarheid van het model, vooral nu steeds meer bedrijven open-source AI-modellen overwegen als alternatief voor gesloten systemen zoals OpenAI's GPT-4 en Google's Gemini.
Censuur en AI gaan hand in hand. Alle modellen die je kent doen aan een bepaalde vorm van censuur. De vraag is: wat moet wel en wat moet niet gecensureerd worden. Daar denkt men per bedrijf, maar zeker per regio in de wereld anders over.
DeepSeek-R1 werd aanvankelijk geprezen als een innovatieve en efficiënte concurrent voor westerse AI-modellen, dankzij de lagere ontwikkelkosten en open-source beschikbaarheid. De technologie heeft echter al snel weerstand opgeroepen. De Taiwanese overheid heeft DeepSeek verboden voor gebruik door overheidsinstellingen en kritieke infrastructuur uit vrees voor nationale veiligheidsrisico's. Ook Italië heeft het model geblokkeerd vanwege zorgen over privacy en ethische kwesties.
Tegelijkertijd blijven grote technologiebedrijven fors investeren in AI, ondanks de opkomst van DeepSeek. Microsoft en Meta zetten hun miljardeninvesteringen in AI-infrastructuur onverminderd voort, terwijl Meta-CEO Mark Zuckerberg heeft verklaard dat zijn bedrijf niet van koers zal veranderen en blijft inzetten op geavanceerde AI-ontwikkeling.
De opkomst van DeepSeek-R1 en de bijbehorende veiligheidsproblemen dwingen de AI-sector om na te denken over de balans tussen innovatie en beveiliging. Terwijl open-source modellen zoals DeepSeek toegankelijkheid en kostenvoordelen bieden, brengen ze ook nieuwe risico’s met zich mee. Overheden en bedrijven moeten daarom kritischer kijken naar de implementatie van dergelijke technologieën, vooral als deze in kritieke of gevoelige toepassingen worden gebruikt.
Met de huidige ontwikkelingen lijkt het waarschijnlijk dat er strengere regelgeving en veiligheidsstandaarden zullen komen voor open-source AI-modellen. De vraag blijft echter of DeepSeek-R1 deze uitdagingen kan overwinnen en zich kan vestigen als een betrouwbare speler in de AI-markt.