Onderzoekers van Nvidia, IBM en verschillende Amerikaanse universiteiten hebben een paper gepubliceerd waarin een architectuur wordt besproken om gpu’s van grote hoeveelheden snelle opslag te voorzien. Deze extra opslag moet van pas komen bij rekenintensieve gpu-toepassingen, waaronder analyses en machine learning.
Het zogenaamde Big accelerator Memory (BaM) moet een software- en hardware-architectuur bieden waarmee gpu’s rechtstreeks informatie uit het geheugen en de opslag kunnen halen en verwerken, zonder dat er cpu-kracht vereist is om deze acties te voltooien.

BaM bestaat uit twee hoofdonderdelen: een softwarematig beheerde cache van gpu-geheugen en een softwarebibliotheek voor gpu-threads om rechtstreeks informatie van nvme-ssd’s te benaderen. Het verplaatsen van deze informatie wordt behandeld door de gpu, met behulp van RDMA, pcie-interfaces en een aangepaste Linux-kernel waarmee ssd’s indien nodig data kunnen lezen en schrijven van het videogeheugen. Indien de gevraagde gegevens niet in de voornoemde cache zitten, worden deze opdrachten door de gpu in de wachtrij gezet.
De onderzoekers hebben aan de hand van een prototype BaM-systeem met bestaande gpu’s en ssd’s aangetoond dat de techniek een waardig alternatief is voor de traditionele manier van werken, waarbij dit alles wordt aangestuurd door de processor. Men is van plan om BaM op een later punt opensource te maken, zodat anderen soortgelijke systemen kunnen bouwen.
De volledige paper kun je terugvinden via deze link.
De techniek doet denken aan de Radeon Pro SSG van 2017, die onlangs bij Linus Tech Tips aan bod is gekomen.
Bronnen: arXiv (paper), The Register