GTC: Nvidia komt met schaalbare AI-tools en introduceert clouddienst voor quantumsimulaties

Nvidia houdt vandaag zijn GPU Technology Conference (GTC), waarop het bedrijf een groot aantal nieuwe softwarepakketten heeft aangekondigd. Zo heeft het een simulator voor quantumberekeningen gemaakt voor zijn in-house DGX-cloud.

Quantumcomputers zijn namelijk nog niet bepaald breed verkrijgbaar, en Nvidia-ceo Jen-Hsun Huang verklaart dat de industrie behoefte heeft aan een snelle quantumsimulator om onderzoek (naar quantumnetwerken en -modellen) te controleren. De cuQuantum DGX is een clouddienst die op Nvidia's Selene-supercomputer draait. Zoals de naam al suggereert maakt dit datacentrum gebruik van Nvidia's DGX-modules met A100-gpu's.

cuQuantum maakt het mogelijk om simulaties van quantummodellen te versnellen met behulp van artificial intelligence. Een simulatie die voorheen maanden duurde heeft nu slechts een paar dagen nodig om te voltooien. Simulaties zoals het Sycamore Supremacy Circuit duurt op Nvidia's nieuwe clouddienst slechts 7 seconden, in plaats van 8 minuten.  Nvidia heeft ook met behulp van 896 gpu's 1688 qubits gesimuleerd, waarmee het model 3375 vertexen kon verwerken op Selene. Nvidia vergelijkt de service met een ander systeem, dat slechts 210 vertexen wist te halen. In het eerste kwartaal van 2022 moet de dienst beschikbaar worden gemaakt.

Verder onthult de chipontwerper de cuNumeric-tools voor het versnellen van NumPy. Het is schaalbaar van één gpu tot supercomputers, en het kan naast van gpu's ook draaien op cpu's en dpu's (data processing units op netwerkkaarten).  Nvidia noemt dat bij 1000 gpu's het verlies van efficiëntie slechts 20% is. Het moet een drop-in-tool zijn waarbij parallelle configuraties automatisch worden ingesteld. De cuDF-tool is een framework voor Panda, cuML is voor Scikit Learn-taken en cuGraph is als NetworkX.

Bron: Nvidia

« Vorig bericht Volgend bericht »
0