HPE zeigt Prototypen von "The-Machine-Project" auf der Discover in London

London, Starnberg, 29. Nov. 2016 - Arbeitsspeicher-zentrische Architektur für Exascale Computing; CPU-Nodes teilen sich gemeinsamen Pool an Fabric Attached Memory…

Zum Hintergrund: Nicht zuletzt auf Grund der Digitalisierung wächst das Datenvolumen zunehmend schneller als die Fähigkeit, die Daten auch künftig noch mit herkömmlichen Computer-Architekturen zu verarbeiten, zu speichern, zu verwalten und zu sichern. Hewlett Packard Enterprise (HPE) hat hierzu erfolgreich seinen Memory-Driven Computing - Ansatz demonstriert, eine Computer–Architektur, bei der nicht der Prozessor, sondern der Arbeitsspeicher im Zentrum steht. Mit dieser Architektur lässt sich laut HPE-Zitat "eine bisher nicht erreichte Leistung und Effizienz erzielen". Der HPE-Prototyp ist ein Meilenstein des Forschungsprogramms mit dem Namen "The Machine", mit dem das Unternehmen die grundlegende Architektur transformieren will, auf der Computer seit 60 Jahren aufbauen.

Das Machine-Forschungsprojekt wird zudem den Fokus auf Exascale Computing legen - dabei handelt es sich um Hochleistungsrechner, die künftig eine Trillion Rechenoperationen in der Sekunde ausführen sollen. HPEs Memory-Driven-Computing-Architektur ist hoch skalierbar und Grundlage für eine große Bandbreite an rechen- und datenintensiven Workloads, einschließlich Big Data Analytics und IoT-Umgebungen.

Während der Entwicklungsphase des Prototyps wurde laut HPE mithilfe von Simulationen errechnet, dass die Architektur im Vergleich zu heutigen Computern eine bis zu 8.000-mal schnellere Verarbeitungsgeschwindigkeit bei unterschiedlichen Workloads erzielt. HPE erwartet ähnliche Resultate, wenn die Kapazität des Prototyps um weitere Knoten und mehr Arbeitsspeicher erweitert wird. Der Prototyp ist seit Oktober in Betrieb und zeigtei dab auf, wie die Bausteine der neuen Architektur zusammenarbeiten:

  • Rechner-Knoten greifen auf einen gemeinsamen Pool von Fabric Attached Memory zu;
  • Ein in optimiertes Linux-Betriebssystem läuft auf einem optimierten System on a Chip (SOC);
  • Photonik/Optische Datenübertragung, einschließlich der neuen X1-Photonics-Module, ist online und funktionsfähig;
  • Neue Entwicklungs-Werkzeuge, die den nicht-flüchtigem Arbeitsspeicher nutzen können.

1. Markteinführung von Memory-Driven Computing:

HPE möchte nach eigenen Angaben die Technologien, die im Rahmen der The-Machine-Forschung entwickelt wurden, schnell in neuen und in bereits existierenden Produkten auf den Markt bringen. Diese Technologien lassen sich in vier Kategorien einteilen: Nichtflüchtiger Speicher, Netzwerk (Fabric, einschließlich Photonik), Ökosystem-Ausbau (Apps) und Sicherheit.

2. Nichtflüchtiger Speicher:

HPE arbeitet weiter daran, Byte-adressierbaren nichtflüchtigen Speicher auf den Markt zu bringen und plant diesen bereits 2018/19 vorzustellen. Mit Technologien aus dem The-Machine-Projekt wurde auch HPE Persistent Memory entwickelt - ein Schritt auf dem Weg zu Byte-adressierbarem, nichtflüchtigem Speicher (NVM), der die Leistung von DRAM und die Kapazität und Beständigkeit von traditionellem Speicher zu bieten. HPE Persistent Memory wurde bereits in den HPE-Servern ProLiant DL360 und DL380 Gen9 eingeführt.

3. Fabric (einschließlich Photonik):

Im Rahmen der Photonik-Forschung hat HPE seine Produkte bereits zukunftssicher ausgerüstet, beispielsweise sollen die HPE-Synergy-Systeme, die im kommenden Jahr verfügbar sein werden, in Zukunft auch mit Photonik/optischen Technologien arbeiten können. 2018/19 plant HPE, Photonik in weitere Produktlinien, einschließlich des Storage-Portfolios, zu integrieren. Das Unternehmen plant ferner, Fabric Attached Storage auf den Markt zu bringen, basierend auf einem neuen Hochleistungs-Interconnect-Protokoll, das gerade von dem kürzlich gegründeten Gen-Z-Consortium vorgeschlagen und entwickelt wird, bei dem HPE Mitglied ist.

4. Aufbau eines Software-Ökosystems für Memory-Driven Systems:

Dieses Jahr wurde die Zusammenarbeit mit Hortonworks/Spark gestartet, um Software für Memory-Driven Computing auf den Markt zu bringen. Seit Juni 2016 hat das Unternehmen auch Code-Pakete auf Github zur Verfügung gestellt, um Programmierer mit der neuen Memory-Driven Architecture vertraut zu machen. HPE plant, den Code innerhalb des nächsten Jahres in bereits existierende Systeme zu integrieren und wird die nächste Generation von Analytics-Lösungen und -Anwendungen 2018/19 herausbringen (als Mitglied des Gen-Z-Konsortiums beabsichtigt HPE zudem, geeignete Ökosystem-Technologien und Spezifikationen in den nächsten Jahren in eine Reihe von Produkten integrieren).

5. Sicherheit:

Mit dem Prototyp demonstriert HPE die Überzeugung, dass Sicherheit in sämtlichen Hardware- und Software-Schichten integriert sein sollte. Man plant deshalb, diese Strategie nächstes Jahr mit weiteren Hardware-Sicherheitsfunktionen weiterzuverfolgen, gefolgt von neuen Software-Sicherheitsfunktionen innerhalb der nächsten drei Jahre. Ab 2020 plant das Unternehmen, diese Lösungen zusammen mit weiteren fortschrittlichen Sicherheitstechnologien zu kombinieren, die sich derzeit gerade im Entwicklungsstadium befinden.


Zitatauszug Antonio Neri, Executive Vice President und General Manager der Enterprise Group bei HPE. "Mit diesem Prototyp haben wir das Potenzial des Memory-Driven Computings demonstriert und gleichzeitig die Tür für sofortige Innovationen geöffnet. Unsere Kunden und die gesamte Industrie werden von diesen Fortschritten profitieren, indem wir unser Streben nach wegweisenden Technologien fortsetzen..."

Abb. 1: HPE The Machine (Bildquelle Hewlett Packard Enterprise / alle Rechte)


(1) HPE Discover Livestream - Dienstag und Mittwoch zwischen 15 und 17 Uhr