Hewlett Packard Enterprise heeft de grootste single-memory computer ter wereld geïntroduceerd. Dit onderzoeksproject richt zich op de ontwikkeling van Memory-Driven Computing, een compleet nieuwe architectuur voor het opkomende Big Data-tijdperk.
Het onthulde prototype bevat 160 terabyte (TB) geheugen en kan gelijktijdig werken met data uit omgerekend ongeveer 160 miljoen boeken, acht keer zo veel als alle boeken uit de Library of Congress. Niet eerder was het volgens HPE mogelijk om complete datasets van dit formaat in een single-memory system te bewaren en te bewerken.
Op basis van het huidige prototype verwacht de maker de architectuur eenvoudig te kunnen schalen naar een single-memory system op exabyteschaal en in later stadium naar een vrijwel oneindige bron van geheugen: 4.096 yottabytes. Memory-Driven Computing zet het geheugen - en dus niet de processor - centraal in de computingarchitectuur. Door de inefficiëntie van interactie tussen geheugen, storage en processors in traditionele systemen te elimineren, moet Memory-Driven Computing de benodigde tijd besparen om complexe problemen te verwerken. Hiermee moet realtime-intelligence mogelijk worden, zo stelt HPE.
Het nieuwe prototype bouwt voort op de resultaten van het onderzoeksproject van The Machine waaronder:
- 160 TB shared memory, verspreid over 40 fysieke nodes, met elkaar verbonden door een high-performance fabric protocol.
- Een geoptimaliseerd op Linux gebaseerd besturingssysteem (OS) dat draait op Thunder X2 van Cavium.
- Photonics/Optical communication links zijn online en operationeel, inclusief de nieuwe X1 photonics module.
- Softwareprogrammeringstools om alles te halen uit grote hoeveelheden persistent memory.
Bron: HPE