Nvidia gooit hoge ogen met zijn AI-producten, zo werd afgelopen jaar heel duidelijk. Zo werd er in het tweede kwartaal van dit jaar al bijna een miljoen kilogram van de AI-accelerators verscheept. Dit legt Nvidia ook bepaald geen windeieren, Nvidia zou de kaarten voor acht keer de kostprijst verkopen. Dit heeft het bedrijf dan ook een zeer winstgevend derde kwartaal van 2023 opgeleverd.
Ook volgend jaar lijkt de vraag naar AI-producten niet te verminderen en gezien elk van deze kaarten tot 700 Watt kan verbruiken is er flink wat energie nodig om al deze kaarten van genoeg stroom te voorzien. Met de huidige cijfers zouden alle kaarten tezamen al meer verbruiken dan enkele grote steden en in de buurt komen van het verbruik van enkele van de kleinere Europese landen. In een zekere zin lijkt de AI-hype het stroomverbruik van cryptomunten achterna te gaan, wat op zijn piek in 2020 een groter verbruik had dan Oostenrijk. Twee maanden geleden leek het verbruik van datacentra voor AI ongeveer hetzelfde zijn als Cyprus, volgens het Franse Schneider Electric.
Een cluster met vier H100-gpu's van Nvidia.
Volgens Paul Churnock, van Microsoft, zouden alle Nvidia H100-gpu's meer energie verbruiken dan alle huizen in Phoenix bij elkaar aan het einde van 2024. Dit is een stad met 1,6 miljoen inwoners waar door het klimaat veelvuldig gebruik gemaakt wordt van airconditioning. Gezien het gemiddelde verbruik van een H100 vergelijkbaar is met het stroomverbruik van een gemiddeld Amerikaans huishouden en de verwachting is dat de H100 mogelijk 2 miljoen keer verkocht zal worden in 2024, is het overduidelijk dat het stroomverbruik snel zal stijgen aankomend jaar. Het totale verbruik van de H100-gpu's zou rond de 13.000 GWh per jaar kunnen uitkomen aan het einde van 2024. Vergelijkbaar met landen zoals Georgië, Litouwen, en Guatemala. De verwachting is wel dat de groei in stroomverbruik daarna flink zal afnemen, omdat de opvolger van de H100, de B100 die op blackwell gebaseerd moet zijn, hoogstwaarschijnlijk een stuk efficiënter zal zijn, net als mogelijke concurrerende chips.
Bron: Tom's Hardware