Microsoft heeft twee zelfontwikkelde chips voor zijn datacentra onthuld. Enerzijds is er de Azure Maia AI-accelerator, die op allerlei AI-workloads zoals generatieve AI is gericht. Anderzijds komt Cobalt aan bod, een 128-koppige Arm-processor die bedoeld is voor meer algemene compute-taken in de Microsoft Cloud. Deze producten zullen begin volgend jaar worden uitgerold naar de datacenters van Microsoft om diensten zoals Microsoft Copilot en Azure OpenAI Service aan te drijven.
Het bedrijf is enorm karig met details, al heeft men aan Tom’s Hardware gemeld dat beide chips op “de nieuwste” node van TSMC worden vervaardigd. Bij Maia wordt specifiek 5nm genoemd, wat doet vermoeden dat dit hetzelfde geval is bij Cobalt. Verder is men alvast volop bezig met de ontwikkeling van de tweede generatie.
De Maia AI-accelerator beschikt over niet minder dan 105 miljard transistors, waardoor het "een van de grootste chips is die met bestaande technologie kan worden vervaardigd". Maia is specifiek ontworpen voor de infrastructuur van Microsoft, wat een grote vooruitgang op het gebied van zowel prestaties als van efficiëntie moet mogelijk maken. Hij is naar eigen zeggen een ideale kandidaat voor large language models, die niet geheel onverwacht met open armen wordt ontvangen door OpenAI.
Om de temperaturen onder controle te houden heeft het bedrijf een custom koeloplossing ontwikkeld.
Voor de Azure Cobalt-processor heeft Microsoft een ontwerp op basis van Neoverse CSS gelicentieerd bij Arm. Met 128 64-bit cores moet een prestatiewinst van wel 40% mogelijk zijn in vergelijk met bestaande Arm-gebaseerde Azure-servers.
Tot slot geeft het bedrijf aan dat er nog steeds interesse is in de producten van partners. Zo zijn er onder meer plannen om MI300X-accelerators van AMD toe te voegen aan zijn servers, alsook de H100 en H200 Tensor Core-gpu’s van Nvidia.
Bronnen: Microsoft, Tom's Hardware