Blog zum Thema Software Defined Flash, SDF

Starnberg, 3. April 2013 – Storage Quality of Service oder die nächste Stufe der Flash-Evolution...

Um was es hier geht: aktuell dreht sich I/O-Performance-seitig fast alles um Flash. Wobei es sich nicht einmal um einen Hype handelt (laut Wikipedia „in den Massenmedien aufgebauschte oder übertriebene Nachrichten, die gezielt zur Werbung lanciert wurden“), sondern um reale Anwendungsanforderungen, die wesentlich aus der zunehmenden Kluft zwischen der gestiegenen Serverperformance, leistungshungrigen Applikationen und der beschränkten E-/A-Leistung mechanischer Festplatten herrührt; besonders sichtbar im Bereich von OLTP-Apps, Virtualisierung und spezifischen Datenbank-Anwendungen.

Analog zu Software Defined Networks (SDN), Software Defined Storage (SDS) und Software Defined Datacenter (SDC) ist zu beobachten, wie gerade ein weiterer Begriff entsteht: Software Defined Flash (SDF). Ich habe SDF hier als Abkürzung verwendet, wenngleich es wohl derzeit noch keine „offizielle“ Schreibweise ist...

Auf Grund der bisherigen am Markt verfügbaren Flash-Technologien (im Server, Array, Laufwerk-/hybrid) wächst Infrastrukturseitig die Nutzung von Flash in den verschiedensten Geräten-/Systemen. Da wie bereits früher festgestellt, die „eine Storagelösung“ nicht existiert, wird sich dieser Trend zu einer Tiered (Flash) Architektur aus meiner Sicht bei den gesunkenen NAND-Einstiegspreisen weiter fortsetzen. Damit ist allerdings auch klar, dass der Grad an Komplexität aus Verwaltungs- und Betriebssicht in stark heterogenen Systemumgebungen weiter zunimmt. Wir werden im Rechenzentrum sowohl eine Zunahme an dedizierten direct-attached-Storage (DAS) als spezialisierte vertikale Lösungsstacks als auch einen weiter wachsenden Markt im Bereich Netzwerk-Speicher (SAN, 10 GBE, 16G FC, Unified) sehen.

Die Kosten pro I/O sind mit Flash gesunken, aber wenn OPEX in diesem Umfeld bis zu 80% der TCO ausmachen sollte, muss man sich zwangsläufig Gedanken um eine bessere zentralisierte Verwaltung dieser verteilt agierenden Ressourcen machen. Ein weiterer Aspekt betrifft die engere Verbindung zwischen Anwendungen und Storage Ressourcen sowie deren möglichst hochgradig automatisiertes Storage Management.

Hier kommt SDF ins Spiel: wenn es Software-gesteuert möglich ist, die verschiedensten Flash-Ressourcen übergreifend (im Sinne eines einheitlichen Storage Pools = Virtualisierung) zu steuern – je nach Kapazitäts-/Performance- und Kostenanforderungen – ist eine nach SLA- und QoS-Aspekten aufgebaute Architektur auch in einem stärker heterogenem Umfeld machbar... oder mit anderen Worten: eine Storage - Quality of Service Abstraktion, die über Hersteller- und Plattform-Implementierungen hinaus geht.

Dies bedeutet einen weiterer Schritt hin zur konsequenten Abstraktion technischer Infrastrukturelemente (Geräte, Systeme) von der reinen Anwendungsseite und per Definition den Aufbau des Software Defined Datacenter... Hier beginnt also die nächste Stufe der Flash-Evolution!