ETH Zürich en EPFL werken aan een
open-source taalmodel dat later in 2025 beschikbaar komt voor publiek gebruik. Het model is getraind op een CO₂-neutrale supercomputer en bedoeld als transparant alternatief voor gesloten AI-systemen.
Door de combinatie van open toegang tot modeldata, ondersteuning voor meer dan 1.500 talen en aandacht voor regelgeving, sluit het project aan bij bredere discussies over controle, herbruikbaarheid en ethiek in kunstmatige intelligentie.
Wat is het Zwitserse open-source LLM?
ETH Zürich en de École Polytechnique Fédérale de Lausanne (EPFL)
ontwikkelen gezamenlijk een zogenaamd open-weight large language model (LLM). De bedoeling is om zowel de modelgewichten als de trainingscode en gebruikte data-referenties volledig beschikbaar te stellen voor onderzoekers, ontwikkelaars en bedrijven.
Het project wordt vaak aangeduid als het Zwitserse publieke LLM, maar heeft vooralsnog geen officiële naam. De release staat gepland voor eind 2025 onder een open Apache 2.0-licentie.
Het model zal in twee configuraties verschijnen:
- Eén met 8 miljard parameters
- Eén met 70 miljard parameters
Beide modellen zijn getraind op 15 biljoen tokens, verdeeld over meer dan 1.500 talen. De trainingsdata bestaat voor 60% uit Engelstalige content en voor 40% uit andere talen.
Infrastructuur en energiegebruik
De training vindt plaats op de Alps-supercomputer van het Swiss National Supercomputing Centre (CSCS), uitgerust met 10.000 Nvidia Grace-Hopper-chips. Deze infrastructuur draait volledig op hernieuwbare energie. Dat maakt het project opvallend binnen een sector waar AI-training vaak gepaard gaat met hoge energiebelasting.
Wat maakt dit model anders dan commerciële alternatieven?
Open toegang
In tegenstelling tot modellen als GPT-4, waarvan alleen via API toegang mogelijk is, biedt het Zwitserse model inzicht in de volledige modelarchitectuur en trainingsgegevens. Daarmee kunnen onderzoekers:
- Het model lokaal draaien
- Fine-tunen voor specifieke toepassingen
- Inzicht krijgen in mogelijke vooroordelen of gebreken in de training
Aandacht voor taaldiversiteit
Met ondersteuning voor meer dan 1.500 talen is het model breder inzetbaar dan veel bestaande systemen die sterk gericht zijn op Engels.
Afstemming op regelgeving
De ontwikkelaars geven aan dat het model is ontworpen met de EU AI Act in gedachten. Deze regelgeving, die vanaf 2 augustus 2025 van kracht is, stelt eisen aan transparantie, dataverantwoording en veiligheid. Open-source projecten zoals dit kunnen eenvoudiger aan die eisen voldoen, doordat ze hun werkwijze vanaf het begin documenteren en publiek maken.
Mogelijke toepassingen binnen blockchain en Web3
Het open karakter van het Zwitserse LLM sluit aan bij de uitgangspunten van Web3, zoals decentralisatie en controle door de gebruiker. Mogelijke toepassingen zijn:
- Lokale inferentie op rollups: Lichtgewicht versies van het model kunnen geïntegreerd worden in blockchainprotocollen om realtime analyses of contractcontroles uit te voeren.
- Transparante datamarktplaatsen: Door inzicht in de gebruikte trainingsdata kunnen bijdragers beloond worden of feedback geven.
- Controleerbare output voor DeFi-tools: Open gewichten maken het mogelijk om voorspelbare resultaten te genereren, wat belangrijk is voor toepassingen als prijsmodellen of risicobeoordeling.
Vergelijking met andere open modellen
GPT-4
Hoewel GPT-4 vermoedelijk over aanzienlijk meer parameters beschikt (geschat op 1,7 biljoen), blijft het een gesloten model. Er is geen toegang tot de gewichten of trainingsdata, wat onafhankelijk onderzoek bemoeilijkt.
Alibaba Qwen
De Qwen3-serie van Alibaba is eveneens open-source, inclusief een Mixture-of-Experts-architectuur met tot 235 miljard parameters (waarvan 22 miljard tegelijk actief zijn). Het biedt hoge prestaties in specifieke domeinen zoals codegeneratie.
Qwen deelt echter minder details over de herkomst van de trainingsdata en draait op Alibaba Cloud in plaats van een duurzame, nationale infrastructuur.
Belangrijkste verschillen
Vergelijking: Zwitserse LLM vs GPT-4 en Qwen3
- Licentie
Zwitserse LLM: Apache 2.0 (open)
GPT-4: Gesloten
Qwen3‑Coder: Apache 2.0 (open) - Aantal parameters
Zwitserse LLM: 8 miljard en 70 miljard
GPT-4: Ongeveer 1,7 biljoen (geschat)
Qwen3‑Coder: 235 miljard totaal (22 miljard actief via Mixture-of-Experts) - Taalondersteuning
Zwitserse LLM: Meer dan 1.500 talen
GPT-4: Beperkt, vooral gericht op Engels
Qwen3‑Coder: 119 talen - Traininginfrastructuur
Zwitserse LLM: Alps-supercomputer (100% hernieuwbare energie)
GPT-4: Microsoft Azure (cloudinfrastructuur)
Qwen3‑Coder: Alibaba Cloud - Transparantie van datasets
Zwitserse LLM: Volledig openbaar
GPT-4: Niet beschikbaar
Qwen3‑Coder: Beperkt openbaar - Geschikt voor Web3-toepassingen
Zwitserse LLM: Ja
GPT-4: Nee
Qwen3‑Coder: Beperkt
Aandachtspunten bij open LLM’s
Ondanks de voordelen van open modellen, zijn er ook beperkingen:
- Technische drempels: Lokaal draaien vereist veel geheugen (64 GB RAM of meer) en meerdere GPU's.
- Softwarefragmentatie: Verschillen in versies van libraries kunnen implementatie bemoeilijken.
- Minder stabiliteit: Open modellen zijn gevoeliger voor ‘hallucinaties’ of foutieve output.
- Juridische onzekerheden: Gebruik van webcrawldata brengt mogelijk risico’s met zich mee rond auteursrecht of privacy.
- Beveiliging: Minder centrale controle betekent ook een groter risico op kwaadaardige code of onbedoelde lekken.