Blog: Zur Positionierung von Software Defined Storage (SDS)

Starnberg, 31. Okt. 2014 - Einige Gedanken zum Nutzen, dem Einsatz und der Zukunft von Storage Virtualisierung im Rechenzentrum... 

Um was es hier geht: Die Entkopplung der Anwendungsseite von physikalischen Serversystemen – verstärkt in Kombination mit hybriden Cloudmodellen - wird im RZ für mehr Flexibilität und Kostenvorteile neben Initiativen zur Standardisierung und Konsolidierung sorgen. Die Software-Ebene ist dabei zunehmend von den funktionalen Abhängigkeiten der Hardwareseite abgekoppelt, aber damit werden virtuelle Konfigurationen komplexer (und wachsen sehr schnell). Proaktive Fehlersuche und ein umfassendes, anwendungsbezogenes End-to-end Monitoring ist damit essentiell. Das fast alle relevanten Storage Anbieter nun auf den virtuellen Zug aufgesprungen sind und ihre Lösungen unter dem Begriff Software Defined Storage (SDS) positionieren, macht es für Betreiber nicht nur einfacher. Eine zunehmende Vielfalt und Abhängigkeit von virtuellen Systemen, Maschinen und Daten erhöht die Komplexität, betrifft potentiell Verfügbarkeiten und die Beschaffungs- und Betriebskostenseite (Lizenzkosten, OPEX). TCO-seitig kommt neben der Automatisierung dem pro-aktiven Monitoring der virtuellen Infrastruktur eine wichtige Bedeutung zu.

Wo liegen die Vorteile von SDS?

Im konsequent Software-definierten Rechenzentrum werden die Storage Services auf eine Storage Software - Kontrollebene verlagert. Damit entsteht eine zentrale und systemweite Verwaltungsinstanz, die nicht von spezifischen Funktionen einzelner Storage Subsysteme abhängig ist. Diese „Control Plane“ regelt das Management (Provisioning, LUN Konfiguration, Access, Dedupe, Snapshots, Replikation etc.) aller in dieser Umgebung angeschlossenen Speicher.

Sollte das Storage Management damit nicht gleich auf Hypervisor-Ebene, also beim Virtualisierungs- und Verwaltungslayer wie z.B. VMware vSphere angesiedelt sein?

Durch das Zusammenfassen von internen Serverfestplatten werden Storage- und CPU-Ressourcen gemeinsam verwaltet; das Data Management erfolgt auf virtual machine Ebene (Server SAN Ansatz). Aus meiner Sicht sprechen derzeit der limitierte Funktionsumfang von nativen VM-Filesystemen und die Anforderungen bei I/O-intensiven und datenseitig schnell wachsenden Anwendungen (siehe Server I/O Verhalten; Netzwerk, skalierbares Workload-Management mit balanced I/O) dagegen. Ein SAN (FC, 10 GBE) in Verbindung mit dedizierter, virtualisierter Speicherverwaltung (Array, Appliance) liefert derzeit im Block-Bereich meist die bessere Skalierbarkeit, Performance und Flexibilität für gängige Anwendungen. Konvergente Infrastrukturlösungen sowie Spezialanbieter (z.B. Nutanix, Tintri) setzen beim Storage I/O auf spezielle VM-optimierte Filesysteme und Architekturen, die allerdings ihre eigene Verwaltungslogik mitbringen und im Zusammenspiel mit vorhandenen Storagesystemen zusätzliche Komplexität erzeugen können.

Der Bereich Software Defined Storage (SDS) ist zur Zeit also dreigeteilt: einerseits reine Softwareanbieter wie Datacore, Nexenta, (Oracle) ZFS oder Red Hat (Storage Server/GlusterFS) als proprietäre- oder open Source Plattformen, integrierte Hardware-/Software – Appliances von Anbietern wie IBM (SVC), EMC ViPR, Fujitsu (mit DataCore/FalconStor), Dell (mit Nexenta) und Subsystem-basierende Varianten (Hardware Defined Storage) wie EMC, NetApp, IBM, HDS, HP, Dell Compellent, Fujitsu, etc.

Die vierte Kategorie: Die Hersteller von Hypervisior-Systemen wie VMware und neue (StorMagic, PernixData, Sanbolic usw.) aber auch klassische Storage-Anbieter liefern mit ihren Virtual Storage Appliances (VSA) sehr nahe beim Hypervisor plus Integration in den virtual machine Stack (z.B. m vSphere Data Services) das weitere, vierte Lösungsszenario.

Anbieter wie HP (StoreVirtual VSA), NetApp (ONTAP Edge VSA), Nexenta (Connect for vSAN) oder DataCore nutzen die Vorteile einer engen Verzahnung mit dem Hypervisior und dessen Mobilitätsfunktionen für Migrations- und Verfügbarkeitszwecke, meist ohne jedoch nur auf einen Hypervisor-Typ (VMware) festgelegt zu sein. Jedoch sind derzeit viele VSA-Angebote nicht wirklich für sehr große Performance- und Kapazitätsanforderungen ausgelegt (Enterprise Class), sondern positionieren sich mehr im Bereich der kleineren bzw. mittleren Leistungsanforderungen (SMB-Markt). Preiswerte Bundles mit Server HW ohne FC-SAN-Komponenten unterstreichen diesen Ansatz.

Es wird spannend zu sehen sein, ob z.B. VMware mit einem neuen vSAN (siehe Virsto-Aquise) in Zukunft den etablierten Anbietern Konkurrenz machen wird, oder ob sich der Konzern (hier EMC) doch lieber auf optimierte Enterprise-Plattformen wie ViPR oder ScaleIO konzentriert. Auch Microsoft mit Hyper-V wird im Block-Storageumfeld mit noch weiteren Funktionen aufwarten genauso wie NetApp SDS (virtual Cloud ONTAP), HP StoreVirtual, Nexenta u.a.


Fazit: Software Defined Datacenter Ansätze in Verbindung mit Cloud Modellen werden durch die zunehmende Konvergenz von Servervirtualisierung, SDN und SDS aus technischer Sicht beschleunigt. Kritische Punkte betreffen dabei die Themen Sicherheit, End-to-end Management (in der Cloud) und Standardisierung (siehe auch OpenStack, Ceph), denn gegenüber der technologischen Konvergenz werden sich aus meiner Sicht weiterhin unterschiedliche, herstellerspezifische Plattformen (Software, Hardware, integrierte Stacks) am Markt befinden.


http://www.vmware.com/de/software-defined-datacenter/storage

http://technet.microsoft.com/de-de/library/dn554251.aspx

http://ceph.com/

http://www.redhat.com/de/technologies/storage/storage-server

http://www.openstack.org/