De United Kingdom Atomic Energy Authority en Cambridge Open Zettascale Lab werken samen met Intel en Dell om een digitale ‘tweeling’-versie van het prototype van de Spherical Tokamak for Energy Production (STEP)-fusiereactor te maken.
Op 27 juni jongstleden organiseerden de samenwerkende instituten en bedrijven een rondetafelgesprek waar de pers bij mocht zijn. Hardware Info was daar ook bij en er werd gesproken over de hardware die nu en in de toekomst gebruikt wordt, maar ook over de onmetelijke hoeveelheden data die bij zo’n digitale simulatie gegenereerd worden en hoe die verwerkt moeten worden.
Deze digitale versie van een industriële omgeving wordt gebouwd voor onderzoekers van bedrijven en overheden van over de hele wereld. Het UKAEA-team kan hun ontwerp aanpassen als middels dit onderzoek nieuwe informatie bekend wordt en nieuwe technologieën ontwikkeld worden. De supercomputer zelf staat bij Cambridge in het lab. De supercomputer in het Cambridge-lab is gebouwd met Dell PowerEdge-servers en Intel-technologie zoals vierdegeneratie Xeon Scalable Processors, distributed asynchronous object storage (DAOS) en de OneAPI-accelerator-api’s. Het plan is om rond 2040 te kunnen beginnen met het commercieel exploiteren van fusie-energie via de Tokamak-reactors.
Dokter Paul Calleja, verbonden aan het project, haalde al snel aan dat het blijven uitbreiden van de hardware waarschijnlijk geen oplossing zal kunnen blijven bieden en dat de software bij verre de belangrijkste spil wordt in dit simulatieproject de komende tijd.
Aangezien hier over een veelvoud van tijdschalen veel vormen van fysica bij elkaar komen, zoals bijvoorbeeld vloeistoffen, plasma’s en materialen, is de hoeveelheid data gigantisch en zijn hele batterijen aan exascale-computers niet zozeer de oplossing. Dat zou veel te veel gaan kosten. Hij roept dan ook op om vooral de softwaremodellen open-source te houden zodat verwerking van data over de hele wereld gedistribueerd kan worden. De eenheid waar op gelet en die onder controle gehouden moet worden is volgens hem ‘kilowatt per eenheid bruikbare informatie’ en niet zozeer ‘megawatt per exaflop’, al wordt er toegegeven dat het een moeilijk quantificeerbare eenheid is.
Uiteraard werd ook ingegaan op kunstmatige intelligentie, wat volgens de betrokkenen ‘net op tijd in de mainstream terecht is gekomen’ om ook van waarde te zijn voor dit project.
Voorlopig is de softwarekant onder de hoede van Intels OneAPI. Daarmee kunnen developers vanuit een enkele codebase werken om applicaties uit te rollen over een veelvoud van verschillende architecturen, overal ter wereld; de zogenaamde 'draagbaarheid van code'. Cambridge Open Zettascale Lab zet vol in op de gereedschappen die de api biedt, zoals geoptimaliseerde ai-frameworks voor het bestuderen van moleculaire dynamica. Echter moeten er zoals gezegd, ook andere technieken aan toegevoegd worden, zoals voor fusiematerialen en plasmasimulaties. Voor opslag is voorlopig gekozen voor Intels DAOS, een open-source scale-out object store. Deze vorm van opslag biedt zeer hoge bandbreedtes, lage latenties en hoge-iops storage containers voor hpc-applicaties.
Rendabel energie opwekken via kernfusie is nog vrij theoretisch maar zou moeten leiden tot zeer grote hoeveelheden duurzame en goedkope energie. Het bouwen van prototype reactoren, vooral die van het Tokamak-type komt al regelmatig en al vrij lang voor, maar een digitaal model zoals in dit project in ontwikkeling is zou veel kosten en tijd kunnen besparen. Supercomputing zal hierin een voorname rol blijven spelen, maar oplossingen gebaseerd op x86-achtige, steeds groter wordende, exa-exa-exascale computers zijn niet adequaat. In de huidige gebruikte supercomputers wordt ook meer ingezet op gpu’s, zoals Intels Ponte Vecchio kunstmatige intelligentie en high performance computing platform.
DIII-D Tokamak in San Diego, VS. (Foto: Rswilcox op Wikipedia)
Tenslotte, voor geïnteresseerden, tijdens de Q&A-sessie werd er gevraagd waarom voor Intel-gpu’s is gekozen, en niet voor bijvoorbeeld die van Nvidia. Hier ging het snel over ‘vendor lock-in’ en hoe dat in het verleden tot prijsverhogingen heeft geleid. Er wordt ‘regelmatig van hardwareleverancier gewisseld’ om dit patroon nu en in de toekomst te voorkomen en 'om de overgang van x86 naar gpu gezamenlijk te doen'. Ook op de vraag of dit soort technologie niet in de verkeerde handen kan vallen door de gedistribueerde opzet van de dataverwerking, kwam een vrij holistisch antwoord. De gereedschapskist is open-source, maar de rechten over verkregen en verwerkte data blijven bij de instituten en bedrijven binnen het samenwerkingsverband. Echter wordt toegegeven dat schaalbaarheid op deze schaal niet te doen is met closed-source, commerciële software en dat dit soort open-source werkomgevingen automatisch een democratisering van technieken inhoudt.
Bron: Techpowerup