En la cursa per accelerar la intel·ligència artificial, Microsoft acaba de presentar la seva jugada més ambiciosa: Maia 200. No és una nova versió dels seus models ni una interfície per a usuaris finals, sinó un component invisible per a la majoria, però essencial. Un xip d’inferència dissenyat per executar els models d’IA més exigents amb eficiència més alta i menor cost.
El motor que dona vida als tokens
Maia 200 és un accelerador d’inferència. És a dir, no entrena models, sinó que s’encarrega d’executar-los quan ja estan llestos, generant respostes, imatges o decisions en temps real. Fabricat amb tecnologia de 3 nanòmetres per TSMC, conté més de 140.000 milions de transistors.
La seva potència es mesura en petaFLOPS, una unitat que indica quantes operacions matemàtiques pot fer per segon. Maia 200 arriba a més de 10 petaFLOPS amb càlculs molt simples i més de 5 petaFLOPS amb càlculs una mica més precisos. Aquest tipus de processament «de baixa precisió» permet que els models d’IA treballin més de pressa i consumeixin menys energia, sense perdre qualitat en els seus resultats. Models com GPT-5.2 d’OpenAI ja estan optimitzats per funcionar així.
Maia 200 també inclou un sistema de memòria redissenyat que mou les dades amb més rapidesa dins del xip, el que evita colls d’ampolla i accelera tot el procés.
Promeses d’eficiència i escala
El nou xip no arriba sol. Maia 200 s’integra en la infraestructura heterogènia d’Azure i ja està en funcionament en centres de dades d’Iowa, amb Arizona com a següent parada. Cada unitat treballa juntament amb altres en configuracions que permeten escalar fins a 6.144 acceleradors connectats. Microsoft promet un rendiment per dòlar un 30% superior al del seu maquinari actual. Això el converteix en una peça clau per a serveis com Microsoft 365 Copilot o la generació de dades sintètiques per entrenar nous models.
Dades fresques per a models més vius
Un dels usos més destacats de Maia 200 serà en la generació de dades sintètiques, conjunts de dades creats artificialment per entrenar IA sense dependre de dades reals. El seu disseny permet generar i filtrar informació amb rapidesa, adaptant-la a dominis específics. Això alimenta els models amb dades més fresques i rellevants, clau per mantenir la seva utilitat i pertinència.
Sota el capó del rendiment
L’arquitectura de Maia 200 també trenca motlles en l’àmbit de sistema. Utilitza una xarxa d’escala basada en Ethernet estàndard, però amb una capa de transport personalitzada que redueix costos i millora la fiabilitat. Cada xip ofereix fins a 2,8 TB/s d’amplada de banda bidireccional, i pot coordinar operacions col·lectives entre milers d’acceleradors amb eficiència previsible.
El conjunt es completa amb un SDK específic que inclou suport per a PyTorch, un compilador Triton i accés al llenguatge de baix nivell de Maia. Els desenvolupadors podran portar models amb facilitat, però també afinar el seu comportament quan sigui necessari.
Una peça més en el tauler de la IA
Amb Maia 200, Microsoft no busca només velocitat. Busca control. En dissenyar el seu propi xip d’inferència, redueix la seva dependència de tercers i afina l’equilibri entre cost, potència i escalabilitat. Mentre altres empreses com Google o Amazon també desenvolupen els seus propis acceleradors, la partida es juga en silenci, en racks ocults en centres de dades.
El futur de la IA no es decidirà només pels models més intel·ligents, sinó per quina infraestructura els sosté. Maia 200 és un recordatori que, perquè una IA parli, abans algú ha hagut de construir la seva veu.