In het kort:
De Maia 200 is Microsoft's antwoord op de groeiende behoefte aan efficiëntere AI-inference, het proces waarbij getrainde modellen daadwerkelijk worden gebruikt in plaats van getraind.
- Met meer dan 100 miljard transistors levert de chip 10 petaflops aan rekenkracht in 4-bit precisie en 5 petaflops in 8-bit performance.
- Eén Maia 200-node kan volgens Microsoft moeiteloos de grootste huidige AI-modellen draaien, met ruimte voor nog grotere toekomstige modellen.
- De chip presteert drie keer beter dan Amazon's Trainium3 en overtreft Google's zevende generatie TPU op FP8-performance.
Het grote plaatje:
Microsoft sluit zich aan bij een groeiende trend waarbij techgiganten hun eigen chips ontwikkelen om de NVIDIA-afhankelijkheid te doorbreken. Google heeft zijn TPU's, Amazon lanceerde onlangs Trainium3, en nu komt Microsoft met Maia.
- De chip wordt al gebruikt voor Microsoft's eigen AI-modellen van het Superintelligence-team en ondersteunt Copilot-operaties.
- Vanaf nu kunnen ontwikkelaars, academici en AI-labs toegang krijgen tot de Maia 200 software development kit.
- Voor AI-bedrijven wordt inference steeds kostbaarder naarmate ze opschalen, waardoor efficiëntere chips cruciaal worden voor winstgevendheid.


