Nvidia toont op Computex zijn DGX GH2000 AI-supercomputer, die 256 Grace Hopper-chips combineert met een totale rekenkracht van één exaflop. Volgens het bedrijf moeten AI-modellen makkelijker kunnen worden getraind met behulp van de GH2000. Volgens ceo Jensen Huang moet dat nu lukken, omdat de Grace Hopper-chips in serieproductie zijn gekomen.
De DGX GH2000 bestaat uit 256 losse modules die als cluster een rekenkracht van één exaflop moeten halen. Nvidia gebruikt de H100-gpu met zijn 3.958 teraflops voor FP8 Tensor Core om de prestaties te berekenen. Vermenigvuldigd met 256 komt dat op een totale rekenkracht van 1.013 exaflops. Daarmee haalt de DGX GH2000 de lijst met top 500 supercomputers niet. Die wordt bepaald voor FP64 en dan haalt de GH2000 met 34 teraflops per Grace Hopper-chip 'slechts' 8.704 petaflops.
De chips worden gecombineerd met in totaal 36 NVLink-C2C-switches. Daardoor gedraagt de kaart zich als een enkele gpu met 144 TiB aan videogeheugen. Volgens Nvidia weegt het systeem daardoor 20.000 kg en heeft ongeveer 240 kilometer glasvezelkabel nodig. De communicatie tussen de chips onderling verloopt met een stabiele snelheid van maximaal 900 GB per seconde (vijf keer sneller dan pci-express 5.0). Over het algemeen heeft de AI-supercomputer een bi-sectionele doorvoer van 128 TB per seconde. De DGX GH200 zal naar verwachting later dit jaar verkrijgbaar zijn.
Bron: Nvidia