Strategien zur Sicherstellung eines leistungsstarken IT-Betriebs aus Sicht der Dateninfrastruktur

München, Starnberg, 21. Nov. 2022 - IT-Infrastruktur und Datenspeicherung sind durch die Digitalisierung verstärkt gefordert; Randbedingungen und ein Kommentar von Infinidat…

Zum Hintergrund: Folgt man Publikationen und Analysen von Firmen wie Gartner zum Thema KPIs für Digital Business Transformation, sehen 90 % der Unternehmensleiter ihre digitalen Geschäftsinitiativen als oberste Priorität an (Quelle: Gartner CEO Survey). IT-Infrastrukturverantwortliche müssen dazu in der Lage sein, ihren Beitrag der Infrastruktur entsprechend zu quantifizieren. KPIs in Bezug auf den Infrastruktur- und damit implizit weiter herunter gebrochen auch auf den Storage- und Datenverwaltungsteil, sind Geschwindigkeit-/Agilität, Kundenzentrierung und Workforce Transformation als wichtigste Stellschrauben. Den größten Engpass (Top 1 Priorität) auf dem Weg zur Erreichung der gesteckten Ziele sehen Entwicklungsverantwortliche laut Gartner dabei in den Beschränkungen der existierenden IT-Infrastruktur- und hier eben besonders bei den Punkten Geschwindigkeit und Agilität** (siehe Bildauszug).

 

**Bildquelle (Auszug): Gartner, 15 Infrastructure KPIs for Digital Business Transformation © 2018 Gartner, Inc. and/or its affiliates. All rights reserved. IEC182440

Querverweis: Gartner Applications Scaling Agile Survey / Link > https://www.gartner.com/en/information-technology

Zentrale Punkte im Zusammenhang mit der Auswahl und Betrieb der Speicherinfrastruktur - wie im Bild beschrieben - betreffen die Meantime to Recovery (s.a. RTO / RPO), Automatisierungsgrad, Cloud-Kosteneffizienz, robuste Einsatzverfügbarkeit etc.

 

Unabhänging davon betreffen weitere Aspekte die Operationalisierung von KI zur Automatisierung des Datenmanagements

Dieser Punkt ist entscheidend für den Erfolg, denn Datenverantwortliche nutzen verstärkt KI-gestützte Erkenntnisse und Prozessoptimierung, um die Effizienz sowie die Verfügbarkeit und Nutzung von Daten für die User zu verbessern. Dies und weitere Ergebnisse wie die zunehmende Bedeutung Cloud-zentrierte Modelle und integrierte Datenmanagement-Ansätze hat das Unternehmen Informatica im Rahmen des zweiten jährlichen "IDC Global Survey of the Office of the Chief Data Officer (CDO)“ vorgestellt (> https://www.idc.com/), in dem die Herausforderungen, Prioritäten und wichtigsten Leistungsindikatoren von CDOs untersucht wurden, während sie Unternehmen zum Erfolg in einer digitalen Welt führen sollen. Siehe auch unser Beitrag > https://storageconsortium.de/content/content/datenfragmentierung-als-gr%C3%B6%C3%9Fter-hinderungsgrund-f%C3%BCr-die-digitale-transformation-2022

 

Man kann noch eine Reihe weitere Punkte anführen und so fällt bei der Aufzählung von Problemen im Zusammenhang mit der IT-Infrastruktur auch schon mal der Begriff “Das Dreckige Dutzend“. Der Begriff wird auf verschiedene Weise in verschiedenen Branchen genutzt. In Bezug auf die IT  handelt sich dabei um eine Liste von Problemen der Infrastruktur, die aktuelle Unternehmensimplementierungen gefährden und für Gefahren und Risiken sorgen können. Es sind damit die Herausforderungen, Lücken, Missverständnisse und Probleme, mit denen CxOs, aber auch Speicheradministratoren und andere IT-Führungskräfte konfrontiert werden, ohne oftmals genau zu wissen, und was es genau geht bzw. wo und wann diese Probleme auftauchen. Eric Herzog, CMO bei Infinidat (1) hat nachfolgend die aus seiner Sicht 12 wichtigsten Faktoren für Sie aufgeführt, die den IT-Betrieb negativ beeinträchtigen können (ungekürzter Originalkommentar):

1. Unzureichende Cyberresilienz

  • „Cyberresilienz sollte eines der wichtigsten Elemente der IT-Strategie eines Unternehmens sein. Aber zu viele Unternehmen verfügen über ein unzureichendes Maß an Cyberresilienz, um ausreichend gegen Cyber-Angriffe geschützt zu sein, insbesondere Ransomware und Malware. Zu den Merkmalen einer starken Cyberresilienz-Lösung gehören: unveränderliche Snapshots, Air Gapping, eine gesicherte forensische Umgebung (Sandbox) und eine kurze Wiederherstellungszeit (Minuten, nicht Stunden oder Tage). Eine Cyberresilienz-Lösung kann als effektiv gelten, wenn sie garantierte Verfügbarkeit und eine vollständig skalierte Datenwiederherstellung für sowohl Primär- als auch Sekundärspeicher bietet. Idealerweise sollte der Storage-Hersteller entsprechende Garantien bieten.

2. Cybersicherheit und Datenspeicherung ohne Zusammenhang

  • IT-Führungskräfte und CISOs müssen die Speicherung als Teil der umfassenden Cybersicherheitsstrategie ihres Unternehmens betrachten. Um Cybersecurity-Bedrohungen einen Schritt voraus zu sein, muss ein ganzheitlicher Ansatz gewählt werden. Dies bedeutet, dass die Beziehung zwischen Cybersicherheit, Datenspeicherung und Cyberresilienz bewertet werden muss. Primärspeicher und Sekundärspeicher müssen geschützt werden und so konzipiert sein, dass sie sich nahtlos und intelligent in die allgemeinen Cybersicherheitsstrategien und umfassenden Frameworks von Unternehmen integrieren lassen. Nur so können Daten, das Pfund mit dem Unternehmen wuchern können, wirkungsvoll geschützt werden.

3. Speicherwildwuchs

  • Ein Unternehmen weiß, dass es Opfer von Speicherwildwuchs ist, wenn es zu viele Storage-Arrays hat. Vielleicht hat es im Laufe der Zeit 10, 12, 15, 20, 40 oder mehr Speicher-Arrays angehäuft, weil der Bedarf an Datenspeicherkapazität beständig gestiegen ist. Das ist nicht überraschend, führt aber unweigerlich zu Ineffizienz, überhöhten Kosten, übermäßig komplexen Rechenzentren, schlechtem Speichermanagement, negativen Auswirkungen auf die Umwelt und den Abfall. Speicherkonsolidierung ist die richtige Strategie, um dieses Problem zu lösen. Organisationen müssen sich nach Storage-Arrays umsehen, die ein Vielfaches der Datenkapazität ihrer bestehenden Systeme speichern können und eine Migration ohne Unterbrechung der Betriebsabläufe erlauben. In der Praxis lassen sich 40 Speicher-Arrays auf einige wenige konsolidieren, um die Verwaltung zu vereinfachen, Kosten zu sparen, die Effizienz zu steigern und die Nachhaltigkeit im Einklang mit den Zielen der Green IT zu gewährleisten.

4. Fehlende Nutzung flexibler Verbrauchsmodelle

  • Unternehmen sind „Gewohnheitstiere“. Viele haben sich darauf festgelegt, Speicherkapazität auf eine bestimmte Art und Weise zu nutzen und zu finanzieren, sei es als Private oder Public Cloud, sei es als Investitions- oder Betriebsausgabe. Dabei gibt es Nutzungsmodelle, die Unternehmen mehr Möglichkeiten bieten. Ein Unternehmen kann nun eine Mischung aus Investitions- und Betriebsausgaben wählen und finanziell davon profitieren, nur für die Kapazität seines Speichersystems zu bezahlen, die es tatsächlich nutzt. Oder es kann High-End-Speichereigenschaften und -funktionen mit einem Pay-as-you-go-Ansatz in einem Cloud-ähnlichen Verbrauchsmodell nutzen. Unternehmen sollten die verschiedenen flexiblen Nutzungsmodelle prüfen, die ihnen zur Verfügung stehen. Sie sollten sich für einen Lieferanten entscheiden, der verschiedene Nutzungsmodelle anbietet und seinen Kunden erlaubt, diese zu kombinieren und im Laufe der Zeit zu wechseln.

5. Hohe Gesamtbetriebskosten

  • IT-Verantwortliche suchen ständig nach Möglichkeiten, Kosten zu senken. Storage ist einer der Bereiche, in denen die IT-Abteilung erhebliche Kosteneinsparungen erzielen kann, ohne dabei Abstriche bei Verfügbarkeit, Zuverlässigkeit oder Leistung machen zu müssen. Eine strategischere Herangehensweise an die Speicherinfrastruktur wird sich dabei positiv auf das Endergebnis auswirken. Unternehmen können auf automatisierte und autonome Speicherplattformen für Primär- und Sekundärspeicher umsteigen und viele Speicher-Arrays auf einige wenige leistungsfähigere Plattformen konsolidieren. Die Umstellung auf Storage-as-a-Service ist ebenfalls eine Möglichkeit, die Kosten zu senken und die Leistungsfähigkeit zu erhöhen.

6. Langsame Datenwiederherstellung nach einem Cyberangriff

  • Erfolgreiche Ransomware-Angriffe, die Daten blockieren oder in irgendeiner Weise beschädigen, gehören zur traurigen Realität der Unternehmens-IT. Die Wiederherstellung der Daten nach einem Angriff erfolgt in der Regel zu langsam, aber viele Unternehmen scheinen sich damit abgefunden zu haben, dass das eben so ist. Eine nahezu sofortige Wiederherstellung nach einem Cyberangriff ist jedoch möglich. Daten können in einer Minute oder weniger aus unveränderlichen Snapshots wiederhergestellt werden, was einer Organisation eine zuverlässige Wiederherstellung ihrer Daten ermöglicht. Besonders fortschrittliche Lieferanten garantieren ihren Kunden sogar bestimmt Wiederherstellungszeiten.

7. Schlechte Performance der Anwendungen und Workloads

  • IT-Führungskräfte hören nicht selten Beschwerden von Führungskräften und Mitarbeitern, wenn Anwendungen langsam laufen. Das halsbrecherische Tempo der heutigen Geschäftswelt offenbart Leistungsprobleme in der Dateninfrastruktur. Nicht nur die Server sind wichtig für die reale Anwendungsleistung, sondern auch der Speicher ist entscheidend. Bei stark transaktionalen Block-Workloads müssen Unternehmen bei der Wahl der Speicherlösung beispielsweise auf die Anwendungslatenz achten. Die Latenz ist in der Praxis die wichtigste Bestimmungsgröße für die Transaktionsleistung. Eine Latenzzeit von 35 Mikrosekunden kann bei Speicherplattformen für Unternehmen als Richtwert dienen. Eine Latenzzeit über 40 Mikrosekunden sollten Unternehmen nicht akzeptieren.

8. Abhängigkeit von einer veralteten Architektur

  • In vielen Unternehmen findet sich noch eine Speicherarchitektur mit doppelter Redundanz. Eine solche Architektur ist veraltet und bietet nicht das Maß an Zuverlässigkeit bietet, das in der heutigen digitalisierten Welt erforderlich ist. Die Best Practice im Speicherbereich ist eine dreifach redundante Architektur, auch wenn die großen Anbieter dies nur ungern zugeben, weil ihre bestehende Installationsbasis auf einer Dual-Mode-Architektur beruht. Für Unternehmen und Service Provider, die eine hohe Zuverlässigkeit und Langlebigkeit wünschen, ist die dreifache Redundanz jedoch der richtige Weg. Einige Anbieter, die eine Dreifach-Redundanz-Architektur nutzen, sind sich ihrer Sache auch so sicher, dass sie eine 100%ige Verfügbarkeitsgarantie für ihre Speicherlösungen bieten.

9. Zögerliche Ökologisierung der Speicherinfrastruktur

  • Mehr Speicher-Arrays bedeuten mehr physische Objekte, die recycelt werden müssen. Diese Ineffizienz ist das Gegenteil eines grünen Ansatzes, der darauf abzielt, Abfall zu reduzieren, effizienter zu recyceln und die Auswirkungen auf die Umwelt zu verringern. Zu viele Speicher-Arrays verbrauchen auch mehr Energie, mehr Platz und sind teurer. Die Speicherkonsolidierung hingegen steht im Einklang mit dem Umweltschutz - weniger Energie, weniger Platz, weniger Abfall, weniger Recycling und gleichzeitig weniger Kosten. Darum sollten Unternehmen verstärkt die Konsolidierung ihrer Speicherinfrastruktur anstreben.

10. Missverständnis der Hybrid Cloud

  • Zu viele IT-Führungskräfte gehen davon aus, dass ihr Unternehmen komplett auf eine Public Cloud umsteigen muss und keine Private Cloud haben kann, weil sie denken, dass die Private Cloud nicht mehr relevant ist. Das ist falsch. Eine Hybrid Cloud, die Public Cloud und Private Cloud kombiniert, ist durchaus von Vorteil. Eine moderne Private Cloud für die Datenspeicherung ist so leistungsfähig, dass sie der Public Cloud insbesondere bei Bereitstellung, Verwaltung und Nutzung das Wasser reichen kann. Die Kombination von öffentlichen und privaten Cloud-Umgebungen bietet einem Unternehmen mehr Kontrolle, mehr Flexibilität, mehr Sicherheit und mehr Kosteneffizienz. Eine moderne Private Cloud für Storage ermöglicht es Unternehmen, die Kontrolle zu behalten, die Kosten zu senken, die Cybersicherheit zu erhöhen und je nach Bedarf, abhängig von den Anwendungen und Arbeitslasten, eine die öffentliche Cloud einzubinden.

11. Fehlende autonome Automatisierung

  • Ohne autonome Automatisierung werden die Datenspeicherung und die Unternehmensinfrastruktur insgesamt komplexer und kostspieliger. Automatisierung allein ist nicht mehr ausreichend. Die Einbeziehung des autonomen Aspekts in die Automatisierung hebt diese auf die nächste Stufe und ebnet den Weg für die Vereinfachung des Rechenzentrums und AIOps. Diese Funktionalität bietet Unternehmen einen „Set-it-and-forget-it“-Ansatz. Die Speicherung wird im Wesentlichen selbstlernend. Infinidat beschreitet mit einem selbstlernenden Neural Cache neue Wege bei der autonomen Automatisierung. Der Neural Cache nutzt die intelligente Datenplatzierung in einem mehrstufigen Speicherdesign, um das Speichersystem zu optimieren, den Bedarf an manueller Leistungsoptimierung zu eliminieren und den Personalaufwand im Betrieb zu reduzieren.

12. Unzureichender Support von Speicheranbietern

  • Die Bedeutung des Supports bei der Wahl des richtigen Speicherlieferanten lässt sich kaum überschätzen. Idealerweise erhält ein Unternehmen einen „White Glove“-Service von seinem Speicherlieferanten. Darunter ist zu verstehen, dass ein technischer Berater mit der Qualifikation und Erfahrung der höchsten Support-Stufe ohne Zusatzkosten das gesamte Projekt betreut und dem Kunden bei Installation und Betrieb zur Seite steht. So werden eine fehlerfreie Konfiguration und ein problemloser Betrieb gewährleistet.“

(1) Das Foto zeigt Eric Herzog, CMO bei Infinidat (Bildquelle: Infinidat)

 

Querverweis:

Unser Beitrag > Digitale Transformation erhöht die IT-Komplexität und das Risiko schlecht vernetzter Systeme

Unser Beitrag >  Wie Green IT der Schlüssel zur Wettbewerbsfähigkeit werden kann

Unser Beitrag > Hybrid Cloud ist entscheidend für die Modernisierung: Welche Faktoren behindern den Erfolg?

Unser Beitrag > Kalte Daten im Unternehmen: ohne Kontrolle klimaschädlich und teuer