In het kort:
De tijd van "groter is altijd beter" in AI loopt ten einde. MIT-onderzoekers voorspellen dat efficiëntiewinsten belangrijker worden dan het opschalen van rekenkracht.
- Professor Neil Thompson stelt dat de kloof tussen grote en kleine modellen "zeer waarschijnlijk gaat krimpen" in de komende vijf tot tien jaar.
- DeepSeek's goedkope model in januari was al een wake-up call voor de industrie die gewend is aan het verbranden van massale hoeveelheden compute.
- Reasoning-modellen, die nu populair zijn, zijn vooral gevoelig voor deze trend omdat ze meer rekenkracht gebruiken tijdens inference.
Het grote plaatje:
Deze bevindingen stellen vraagtekens bij de huidige AI-infrastructuur boom waarin honderden miljarden worden geïnvesteerd. Ongeveer 60 procent van datacenterkosten gaat naar GPU's die snel in waarde dalen.
- OpenAI-president Greg Brockman kondigde deze week nog partnerships aan voor custom AI-chips, terwijl JP Morgan-CEO Jamie Dimon waarschuwt voor de onzekerheid rond deze investeringen.
- Door zo zwaar in te zetten op gespecialiseerde chips kunnen bedrijven innovaties missen uit de academische wereld, zoals alternatieven voor deep learning en quantum computing.