Het AI-dilemma: Met efficiënte AI-modellen en chips slurpt kunstmatige intelligentie een stuk minder energie
De breincellen van een AI-model: daarmee kun je parameters vergelijken. Parameters zijn de bouwstenen die in zekere mate voorspellen hoeveel energie een model gebruikt na het trainen ervan. Het zijn een soort interne regels, waarvan er in taalmodellen miljarden tegelijk actief zijn om tot een goed antwoord te komen.
Het aantal parameters zit vaak in de officiële naam van een model. Qwen3-30B werkt bijvoorbeeld met 30 miljard parameters, Qwen3-235B met 235 miljard. Als het over een ‘groot model’ gaat, gaat het over een AI-model met veel parameters. Dat betekent: veel rekenkracht, maar in de regel ook een hoger energieverbruik.
Het aantal parameters verschilt nogal per model. Van OpenAI’s GPT-4 wordt geschat dat het rond de 1,5 biljoen parameters heeft, GPT-5 mogelijk nog meer. Open-accessmodel BLOOM telt ‘slechts’ 176 miljard parameters, maar dat is alsnog veel meer dan bijvoorbeeld Alibaba’s Qwen en Meta’s Llama, die varianten met 7 miljard parameters hebben.
[....]