De huidige populariteit van geavanceerde chatbots zoals ChatGPT zorgt volgens BusinessKorea voor een explosie van de prijs van high bandwidth memory. Dit soort geheugen met een extra hoge bandbreedte bedoeld voor datacenters en zware grafische accelerators wordt onder meer door Samsung Electronics en SK Hynix gemaakt, waar momenteel een tot 5 keer zo harde prijsstijging plaatsvindt vergeleken met reguliere dram.
Het zou vooral om HBM3-chips van SK Hynix gaan, de vierde generatie van het geheugenstandaard voor hbm-chips. Het Zuid-Koreaanse bedrijf pionierde samen met AMD deze technologie en heeft een marktaandeel van tussen de 60 en 70 procent. Deze hbm-geheugenchips worden gestapeld en zijn essentieel voor datacenters waar neurale netwerken (zoals ChatGPT) aangedreven worden. "De prijs van HBM3-chips is vijf keer zo hard omhoog gegaan vergeleken met de prijsstijging van de beste dram-chips", waarmee BusinessKorea op basis van statements van een betrokkene uit de industrie stelt dat het niet zozeer om een algehele stijging van de geheugenprijs gaat, maar specifiek een prijsstijging van hbm-geheugen.
Sterker nog, de laatste maanden is er een sterke daling van de prijs van ddr5-geheugen voor consumenten te zien. Die trend heeft klaarblijkelijk geen betrekking op de b2b-markt, waar partijen als Nvidia op een grote schaal nieuw geheugen inkopen.
Samsung maakte een eigen HBM2-chip door het geheugen en AI-processors te combineren voor het accelereren van cpu- en gpu-prestaties
Update, 16-02-2023: In het oorspronkelijke artikel werd gesuggereerd dat HBM3-geheugen vijf keer zo duur is geworden. Dit is gebaseerd op een ambigue zin uit het bronartikel. Na feedback van Wailingwimmy hebben we de zin opnieuw bekeken en aangescherpt.