Hochgradig virtualisierte Infrastrukturen verlangen nach integrierten Speicherlösungen

Starnberg, 28. Jan. 2016 - Spezialisierte Speichersysteme, hyperkonvergente Gesamtlösungen und programmierbare Software Defined Datacenter...

Um was es im folgenden geht: Die in der letzten Zeit zum Teil auch kontrovers geführten Diskussionen zum Thema Hardware-Defined (Controller-based) versus Software-Defined (SW-only auf Standard x86 Supermicro-/Lenovo-/Fujitus-/HP-/Dell- etc. Servern) treffen Anwenderseitig auf unterschiedliche Resonanz. Fakt ist, dass Software-basierte Lösungen von der HW-abstrahierte Funktionen (agnostisch) bereitstellen und damit hohe Flexibilität, sehr geringe Herstellerbindung (in Bezug auf die HW) bei niedrigeren Gesamtkosten (TCO / OPEX) versprechen. Das bedeutet jedoch nicht, dass der Betrieb externer Hardware-defined Storagesysteme wie z.B. Hybrid- oder All-Flash-Arrays (AFA) derzeit immer kostenintensiver sein muss. Dazu basieren auch diese Angebote letztlich auf Standard x86-(Intel)Servern, die im Rahmen einer integrierten SW-/HW-Architektur als Controller- oder Storage-Server (Appliance) konfiguriert sind. Die Software (O/S, firmware) ist bis auf wenige Ausnahmen allerdings nicht stand-alone erhältlich und so nur im Rahmen der vom Hersteller angebotenen Systemangebote lauffähig.

Ein Trend: Hardware- defined Hochleistungs-Storagesysteme "in the box" von Spezialanbietern weisen gerne sehr spezifische Leistungsmerkmale wie z.B. zur (block-basierten) Integration mit Hypervisor-Systemen auf (VM-aware Storage), oder sie sind bewusst als extrem robuste & höchstverfügbare Enterprise Consolidation – Plattformen (Block-/File-/Object) entwickelt, um große an Daten ausfallsicher zu speichern und-/oder nearline zu archivieren. Diese Angebote werden im Markt derzeit gut nachgefragt, denn die Anforderungen an Storagesysteme und das Data Management entwickeln sich weiter sehr dynamisch (Beispiel: scale-out flash / Object Storage) und orientieren sich dabei größtenteils an diesen spezifischen Anwendungsanforderungen. Ein Bereich sei hier deshalb nachfolgend exemplarisch genannt:

  • Durch die Server- und Storagekonsolidierung mittels Virtualisierung wird eine höhere Anwendungsdichte sowie Ressourcenauslastung im RZ erreicht: der Nutzungsgrad (storage utilization) vorhandener Speichergeräte kann bekanntlich auf >90% gesteigert werden. Jedoch entstehen durch Konsolidierungseffekte im Zusammenspiel mit rasch wachsenden VM-Umgebungen diverse potentielle Leistungsengpässe und damit verbundene Schwierigkeiten (Randomized Workloads, I/O-Blender Effekt). Der zunehmende VM-Storage I/O stellt je nach Workload jedenfalls hohe Anforderungen an das Speicher-Management und Netzwerk (QoS), einschließlich verlustfreier Übertragung (iSCSI), vorhersagbaren Latenzzeiten, I/O-Bandbreite etc. Zwar können (scale-out) FLASH Systeme diese Anforderungen auf Grund ihrer Leistungsspezifikationen auf dem Papier leicht erfüllen, jedoch ist besonders die vertiefte Integration der NAND-basierten Technologie in die virtualisierte Anwendungen und VMs entscheidend.

  • Weitere Aspekte beim Design von modernen Speicher- und Netzwerk-Infrastrukturen betreffen aktuelle Entwicklungen im Bereich der Netzwerk-Automatisierung, Standardisierung (siehe IP-Fabrics, OpenStack) und plattformübergreifender Storage Services (QoS-Aspekte); sie sind vor dem Hintergrund hochgradig virtualisierter Rechenzentren jedenfalls strategisch von Bedeutung.

Fazit: Es wird interessant sein zu sehen, wie sich hoch-spezialisierte Systeme, hyperkonvergente Gesamtlösungen und ein längerfristiger Trend zu (programmierbaren) Software Defined Datacenter – Infrastrukturen unter einen Hut bringen lassen werden (Stichworte: Standardisierung, Konvergenz). Diese und weitere Entwicklungen sollen auch adie Inhalte der nächsten Blogs hier bestimmen…