Het idee van een slim huis was altijd eenvoudig. Je spreekt tegen een apparaat en de lichten gaan aan. De thermostaat past zich aan. Je koffie staat klaar. Maar in 2025 blijkt dat wat we als vanzelfsprekend zagen niet werkt zoals we dachten. Recente slimme assistenten die gebruikmaken van kunstmatige intelligentie lijken meer te begrijpen wat je zegt, maar slagen er vaak niet in om basisfuncties uit te voeren, volgens een nieuw
artikel van The Verge.
Nieuwe AI brengt oude problemen terug
Bij de nieuwste generatie slimme spraakassistenten, zoals Amazon’s Alexa Plus en
Google’s Gemini Home, is de technologie achter de spraakherkenning veranderd. In plaats van vaste commando’s te gebruiken die altijd precies hetzelfde resultaat geven, werken deze systemen met grote taalmodellen. Dat zijn algoritmes die woorden en zinnen interpreteren op basis van waarschijnlijkheden. Hierdoor kunnen ze gesprekken voeren die natuurlijker aanvoelen, maar er zit een keerzijde aan. De precisie waarmee simpele taken zoals het aanzetten van een lamp of het starten van een routine gebeuren, neemt af. Taken die voorheen betrouwbaar waren, mislukken nu verrassend vaak.
Frustratie bij gebruikers
Voor veel mensen voelt het alsof de technologie juist achteruitgaat. Eerdere generaties slimme assistenten konden altijd op commando een lamp inschakelen of een muziekje starten. De nieuwe
AI-gestuurde systemen lijken soms te willen “nadenken” over wat je bedoelt, maar falen juist in de uitvoering. In plaats van een routine te starten, krijg je een foutmelding of een analyse van wat er zou kunnen gebeuren. Dat is niet wat de meeste gebruikers verwachten van een slimme assistent in hun huis.
Waarom het niet werkt
De kern van het probleem zit in de aard van grote taalmodellen. Deze zijn ontworpen om tekst te voorspellen en context te creëren, niet om deterministische taken steeds weer op precies dezelfde manier uit te voeren. Voor een slimme lamp of een routine heb je juist een voorspelbare uitkomst nodig. De nieuwe AI-systemen kiezen soms een andere interpretatie dan je bedoelt, waardoor de lamp uitblijft of de routine niet start.
Dit betekent dat apparaten die via dezelfde stemassistent zijn verbonden niet meer zo betrouwbaar reageren als vroeger. En dat zorgt voor frustratie omdat mensen net op die betrouwbaarheid rekenen wanneer ze hun huis willen bedienen met spraakopdrachten in plaats van knoppen.
De kloof tussen begrip en actie
Er is een verschil tussen begrijpen wat iemand bedoelt en het daadwerkelijk uitvoeren van een commando. De nieuwste AI-assistenten lijken beter te luisteren en zelfs complexere verzoeken te kunnen verwerken, maar het blijkt lastig om die interpretatie om te zetten in concrete opdrachten naar apparaten. Daardoor zijn sommige taken langzamer of mislukt. Het begrip is soms indrukwekkend, maar de uitvoering laat te wensen over.
Wat dit betekent voor de toekomst
Het resultaat is een spanningsveld tussen wat AI-leveranciers beloven en wat gebruikers daadwerkelijk ervaren. In plaats van een betrouwbaar hulpmiddel dat het leven gemakkelijker maakt, voelt de slimme assistent soms onbetrouwbaar en onvoorspelbaar. Voor nu moeten gebruikers vaak terugvallen op traditionele routines en vaste commando’s als ze willen dat hun huis doet wat ze verwachten.
De ambitie van een volledig intelligent huis is groot, maar de technologie staat nog niet op een punt waarop het vloeiend en betrouwbaar werkt. Veel slimme huizen blijven achter met systemen die beter lijken in praten dan in doen, en dat verandert de manier waarop we naar deze technologie kijken.