Tijdens Google Cloud Next 25 heeft Google zijn nieuwste Tensor Processing Unit (TPU) onthuld: Ironwood. Deze zevende generatie TPU is specifiek ontworpen voor inferentie, het proces waarbij getrainde AI-modellen worden ingezet om voorspellingen te doen of antwoorden te genereren. Ironwood vertegenwoordigt een belangrijke stap in de ontwikkeling van AI-hardware, met aanzienlijke verbeteringen in prestaties en energie-efficiëntie.
Ironwood is ontworpen om te voldoen aan de groeiende behoeften van geavanceerde AI-modellen, zoals Large Language Models (LLM's) en Mixture of Experts (MoE), die aanzienlijke rekenkracht en efficiënte geheugentoegang vereisen. De verbeterde Inter-Chip Interconnect (ICI) technologie zorgt voor snelle en efficiënte communicatie tussen chips, wat cruciaal is voor grootschalige AI-toepassingen.
Deze ontwikkeling onderstreept Google's inzet om de infrastructuur voor AI-toepassingen te verbeteren en biedt zowel interne teams als cloudklanten de mogelijkheid om geavanceerde AI-modellen efficiënter en op grotere schaal te implementeren.
Ironwood maakt deel uit van de bredere Google Cloud AI Hypercomputer-architectuur, waarbij hardware en software nauw samenwerken om de zwaarste AI-werkbelastingen aan te kunnen. Dit platform is ontworpen om zowel training als inferentie van modellen op enorme schaal mogelijk te maken. Ironwood is volledig geïntegreerd met Google's Pathways-softwarestack, ontwikkeld door DeepMind, waarmee ontwikkelaars efficiënt kunnen rekenen over tienduizenden TPU's tegelijk.
Volgens Google luidt Ironwood de zogenoemde “age of inference” in — een tijdperk waarin AI niet alleen reageert op gebruikersinvoer, maar zelf actief inzichten genereert en interpreteert. Denk aan autonome AI-agenten die proactief informatie verzamelen en conclusies trekken, in plaats van alleen data te presenteren. Ironwood is ontworpen om deze denkmodellen te ondersteunen, met lage latency, hoge doorvoer en krachtige synchronisatie over duizenden chips.
Ironwood is niet alleen geschikt voor klassieke AI-modellen, maar ondersteunt ook bredere toepassingen. Dankzij de verbeterde SparseCore-accelerator kunnen ook ultra-grote embedded modellen voor aanbevelingssystemen, financiële simulaties en wetenschappelijke berekeningen versneld worden uitgevoerd.
Ironwood maakt gebruik van geavanceerde vloeistofkoeling, wat bijdraagt aan de uitzonderlijke energie-efficiëntie. Dit is essentieel gezien de snel stijgende energievraag in datacenters wereldwijd. De combinatie van een hogere prestaties per watt en verbeterde thermische betrouwbaarheid maakt Ironwood bijzonder aantrekkelijk voor bedrijven die AI willen opschalen zonder hun ecologische voetafdruk drastisch te vergroten.
Ironwood zal later in 2025 beschikbaar worden via Google Cloud. Volgens Google worden AI-modellen zoals Gemini 2.5 en het baanbrekende AlphaFold al op TPU's uitgevoerd, en met Ironwood verwacht het bedrijf dat de innovatiesnelheid binnen generatieve AI verder zal versnellen. Voor klanten betekent dit een kans om cutting-edge AI-oplossingen te ontwikkelen zonder zelf te investeren in complexe infrastructuur.