Qualcomm betreedt markt voor ML-acceleratoren met Cloud AI 100

De markt voor machine learning acceleratoren ontwikkeld zich razend snel. Intel voegt nieuwe instructies ervoor toe aan hun CPU's, Nvidia rolt Tensor-cores breed uit en vele bedrijven maken chips voor enkel het trainen en toepassen van neurale netwerken, zoals Google met hun TPU's. Deze week heeft ook Qualcomm aangekondigd zich in deze lucratievere markt te gaan mengen.

Het bedrijf ontwikkelt daarvoor de Cloud AI 100-accelerator. De chip gaat op een 7nm node geproduceerd worden, vermoedelijk de performance variant van TSMC, en wordt gebruikt voor een breed scala aan accelerator kaarten. Het bedrijf claimt 10 maal zoveel performance te kunnen gaan bieden dan de huidige acceleratoren met hetzelfde stroomverbruikt, en meer dan 17x zoveel prestaties te bieden als een Snapdragon 855.

Opvallend is dat de accelerator enkel ingezet gaat worden voor inference, het toepassen van al getrainde modellen op nieuwe data. Daarmee specialiseert het bedrijf zich verder dan Intel en Nvidia, die acceleratoren bieden voor zowel trainen als inference.

Het zal vermoedelijk nog zeker tot volgend jaar duren voordat we deze kaarten in massaproductie zien, ook uit het feit dat Qualcomm alleen nog maar renders heeft getoond.

Bronnen: Qualcomm, AnandTech

« Vorig bericht Volgend bericht »
0