De Italiaanse gegevensbeschermingsautoriteit, de Garante per la Protezione dei Dati Personali (GPDP), heeft per 30 januari 2025 de toegang tot de Chinese AI-dienst DeepSeek in Italië geblokkeerd. De beslissing komt voort uit zorgen over het gebrek aan transparantie rondom het gebruik van persoonlijke gegevens van gebruikers.
Eerder had de GPDP een reeks vragen gestuurd naar DeepSeek over onder andere de herkomst van de trainingsdata, de verwerking van gebruikersgegevens en de opslaglocatie van deze data. DeepSeek, ontwikkeld door Hangzhou DeepSeek Artificial Intelligence en Beijing DeepSeek Artificial Intelligence, reageerde hierop door te stellen dat zij niet actief zijn in Italië en dat Europese wetgeving niet op hen van toepassing is. De Italiaanse toezichthouder noemde deze antwoorden "volledig ontoereikend" en besloot daarom tot een directe blokkade van de dienst in het land.
Naast de blokkade heeft de GPDP een formeel onderzoek ingesteld naar de activiteiten van DeepSeek. Dit is niet de eerste keer dat Italië ingrijpt in de AI-sector. In 2023 werd ChatGPT tijdelijk verboden in het land, totdat OpenAI maatregelen trof om de bezwaren omtrent gegevensbescherming weg te nemen. OpenAI kreeg later alsnog een boete van €15 miljoen wegens het onjuist verwerken van persoonsgegevens.
DeepSeek werd op 15 januari 2025 gelanceerd en heeft in korte tijd enorme populariteit vergaard, met miljoenen downloads wereldwijd. De applicatie stond bovenaan de downloadlijsten in onder andere de VS en het VK. Deze snelle groei heeft echter ook geleid tot kritische vragen van regelgevers en beleidsmakers, met name over de manier waarop DeepSeek censuur en propaganda handhaaft.
Uit analyses blijkt dat de chatbot gevoelige onderwerpen vermijdt die niet stroken met de standpunten van de Chinese overheid. Zo weigert het model vragen te beantwoorden over het Tiananmen-protest van 1989, de status van Taiwan, en geeft het vaak door de overheid goedgekeurde antwoorden over de Chinese leider Xi Jinping.
Naast privacy- en censuurzorgen zijn er ook serieuze beveiligingsrisico’s geconstateerd. Onderzoek door Palo Alto Networks Unit 42 toonde aan dat DeepSeek’s grote taalmodellen (LLM’s) gevoelig zijn voor zogenoemde jailbreak-technieken, zoals:
Met deze methoden kunnen kwaadwillenden DeepSeek omzeilen en de AI dwingen om verboden of schadelijke inhoud te genereren. Dit varieert van instructies voor het maken van Molotovcocktails tot het schrijven van kwaadaardige computercode voor cyberaanvallen zoals SQL-injecties en laterale bewegingen binnen netwerken.
Daarnaast heeft AI-beveiligingsbedrijf HiddenLayer ontdekt dat DeepSeek’s redeneringsmodel DeepSeek-R1 kwetsbaar is voor prompt-injecties, wat kan leiden tot onbedoelde informatielekken. Uit hetzelfde onderzoek blijkt dat DeepSeek mogelijk onrechtmatig data van OpenAI heeft gebruikt, wat vragen oproept over de ethische en juridische aspecten van de AI.
Het verbod op DeepSeek komt op een moment dat wereldwijd steeds meer zorgen ontstaan over de veiligheid van AI-modellen. Zo werd eerder deze maand een kwetsbaarheid ontdekt in ChatGPT-4o, genaamd Time Bandit, waarmee gebruikers de AI konden laten ontsporen en veiligheidsmaatregelen konden omzeilen.
Daarnaast werd een jailbreak-techniek aangetroffen in Alibaba’s Qwen 2.5-VL-model en in GitHub’s Copilot, waarbij een simpele bevestigende prompt zoals "Sure" genoeg was om de AI risicovolle code te laten genereren. Dit onderstreept hoe AI-systemen wereldwijd misbruikt kunnen worden zonder sterke veiligheidsmaatregelen.
De Italiaanse beslissing om DeepSeek te blokkeren weerspiegelt de groeiende bezorgdheid over AI-gebaseerde diensten, vooral als deze worden ontwikkeld door bedrijven met onduidelijke gegevensverwerkingspraktijken. Terwijl het onderzoek van de GPDP doorgaat, blijft de vraag hoe andere Europese landen met soortgelijke AI-toepassingen zullen omgaan.
Met de toenemende afhankelijkheid van AI blijft het cruciaal dat regelgevers strenge controles blijven uitvoeren om zowel gebruikersprivacy als nationale veiligheid te waarborgen.