Wanneer
artsen een hersenscan of MRI analyseren, moeten ze elk deel van het beeld nauwkeurig labelen. Dat is een tijdrovende klus die decennialang grotendeels met de hand gebeurde. Dankzij kunstmatige intelligentie gaat dat inmiddels veel sneller, maar de meeste systemen zijn log, duur en vragen om enorme hoeveelheden data. Onderzoekers van Rice University denken daar nu
iets op gevonden te hebben, een methode die niet alleen slimmer leert, maar ook lichter draait met behulp van
AI.
Nieuw AI model MetaSeg is stuk sneller
Hun nieuwe AI model, genaamd MetaSeg, kan medische beelden segmenteren met dezelfde precisie als de huidige standaard, de zogeheten U-Nets standaarden, maar gebruikt daarvoor 90% minder parameters. In mensentaal: het systeem doet hetzelfde werk met veel minder rekenkracht en geheugen. Dat maakt het niet alleen goedkoper, maar ook sneller inzetbaar in ziekenhuizen en onderzoekscentra waar krachtige GPU’s schaars zijn.
MetaSeg is gebaseerd op impliciete neurale representaties, ook wel INR’s genoemd. In plaats van elk beeld pixel voor pixel op te slaan, zet het systeem beelden om in wiskundige functies die de structuur van een betreffende orgaan dat wordt gescand exact kan weergeven. Het resultaat is een flexibel model dat tot op detailniveau kan reconstrueren hoe bijvoorbeeld de hersenen of longen eruitzien.
Wat MetaSeg bovendien bijzonder maakt, is zijn vermogen tot “meta learning,” leren om te leren. Het systeem past zich razendsnel aan nieuwe typen scans aan, zonder dat het telkens volledig opnieuw
getraind hoeft te worden. Zo kan het bijvoorbeeld met minimale extra data overschakelen van een hersenscan naar een long MRI.
MetaSeg zet nieuwe standaard voor medische AI
De technologie, bekroond met de “Best Paper Award” op de internationale conferentie MICCAI, belooft een revolutie in medische beeldanalyse. Volgens de onderzoekers is het nog maar het begin: MetaSeg kan in de toekomst worden toegepast op uiteenlopende vormen van medische beeldvorming, van hartscans tot microscopische weefselanalyse.