Podcasts des Storage Consortiums bis März 2020

Subscribe to Newsfeed Podcasts des Storage Consortiums bis März 2020 Podcasts des Storage Consortiums bis März 2020
Das Storage Consortium fokussiert aktuelles technisches & wirtschaftliches Wissen für IT Organisationen und Unternehmen – Verlagsunabhängig und unter Mitarbeit sowie Themenauswahl eines erfahrenen Industrieexperten. Die Schwerpunkte des Online-Angebotes - neben dem Hauptgebiet Datenmanagement und Speicherverwaltung - bilden praxisnahe Informationen & Trends zu KI, Big Data, Cloud Computing... im Zusammenhang mit Server- und Netzwerkinfrastruktur-Lösungen für professionelle Rechenzentren und Cloud-Services-Anbieter. Top-aktuelle Podcasts und unser umfangreiches Podcast-Archiv finden Sie in der zugehörigen Rubrik unserer Webseite unter www.storageconsortium.de
Aktualisiert: vor 8 Minuten 57 Sekunden

Objektdaten-Speicherung nur für große Datenmengen? Einsatzbereiche & Use Cases

25 May, 2022 - 11:32

Im Tech-Podcast nachgefragt: Expertengespräch mit HPE und Cancom am Beispiel von Scality ARTESCA, container-basierte „fast Object“ Storage Software Lösung

Zum Hintergrund: Unternehmenswichtige Daten werden - von Core-to-Edge - in immer größeren Mengen erzeugt. Das betrifft Enterprise Anwendungen in Rechenzentren und in der Cloud / SaaS, Industrial Internet of Things mit Sensoren an Außenstellen, Video-Überwachung, Maschinendaten usw. Zusätzlich fordert der beschleunigte Einsatz von ML- und künstlicher Intelligenz auf Grund von Digitalisierungs-Initiativen die Speicher- und IT-Infrastruktur heraus. Stichworte: Datenmobilität, Agilität, Sicherheit, skalierbare Leistung, Kosten.

Zum Podcast-Inhalt (Hörzeit: 28:21 min.)

Die Gesprächspartner dieser Folge sind Dirk Hannemann, HPE Principal Solution Architect und Christian Hansmann, Solution Sales Architect bei Cancom SE. Die Fragen stellt Norbert Deuschle (Storage Consortium):

  1. Wo liegen für ihre Kunden derzeit die größten Herausforderungen im Bereich der Daten- und Speicherverwaltung ?

  2. ARTESCA ist ein verteiltes Objektspeichersystem, das mit Cloud-nativen Methoden als Set von containerisierten Mikroservices auf Basis einer Scale-out-Architektur aufgebaut ist. Warum soll ich mich als mittelständisches Unternehmen mit vielleicht nur 50 oder 100 TB überhaupt mit dieser Art von Lösungen beschäftigen? Mit Einsatzbeispielen (Use Cases)

  3. Kosteneffizienz, Performance und Hochverfügbarkeit sind im Bereich der Datenspeicherung wichtige Randbedingungen. Wie positioniert sich eine moderne Objekt Storage Lösung in diesem Umfeld?

  4. Hohe Datenverfügbarkeit und Sicherheit ist für Anwenderunternehmen überlebensnotwendig. Daneben spielen datenschutz-rechtliche Aspekte (Compliance, wer hat die Hoheit über die Daten), Schutz von Ransomware & Co sowie Backup- und Disaster Recovery Verfahren eine zentrale Rolle. Wie spielt das mit Object Storage zusammen und wo liegen betriebsseitig derzeit die größten Herausforderungen?

  5. Für welche Datenspeicherungs-Anforderungen ist ARTESCA primär konzipiert und was unterscheidet die Software von Scality RING, dem klassischen Objektspeicherangebot des Unternehmens?

  6. Das S3-Protokoll  und Cloud-native gewinnen an Beliebtheit (Stichworte: Agilität, DevOps, Kubernetes & Co.). Allerdings besteht Kundenseitig der Bedarf, auch weiterhin bewährte File-Protokolle- und Daten einzusetzen-/zu verwalten. Wie lassen sich im Rahmen dieser Lösung beide Aspekte sinnvoll kombinieren?

Weitere Information unter www.storageconsortium.de

Tape-basierter S3 Object Storage mit PoINT Archival Gateway

21 April, 2022 - 17:01

Das Storage Consortium (N.Deuschle) spricht in dieser Podcast-Episode mit Herrn Thomas Thalmann, Geschäftsführer der Firma PoINT Software & Systems GmbH in Siegen zu den Technologien, Vorteilen und konkreten Anwendungsfällen einer S3-basierten Objektspeicher-Softwarelösung in Kombination mit Tape Storage.

Im Einzelnen werden in dem Gespräch folgende Punkte adressiert und ausführlicher behandelt:

  • Unstrukturierte Daten, Objektdatenspeicherung, S3, die Cloud und Bandsysteme... Wie sind die akuellen Entwicklungen in der Praxis zu bewerten und wo liegen die wesentlichen Gründe für das beschleunigte Datenwachstum auf der Seite Ihrer Kunden?

  • Wo liegen die Vorteile bei der Verbindung einer Objekt-basierten Datenspeicherung mit Tape-Medien? Welcher Nutzen ergibt sich daraus gegenüber der verbreiteten Datei-basierten Speicherung? Warum die Archivdaten nicht einfach in der Cloud ablegen?

  • Native S3-Schnittstelle und Bandspeicher: Sowohl zur Archivierung als auch für Objekt Storage verwendet man zum Zugriff (RESTful-)APIs. Das Verfahren arbeitet zustandslos über eine einheitliche Schnittstelle. Was sind die wesentliche Gründe, die für den Einsatz von APIs auf Basis der S3 Schnittstelle sprechen?

  • Welche Voraussetzungen sollten geschaffen werden, um Tape-Technologien in Form von Bandbiblotheken sinnvoll in vorhandene Speicher-Infrastrukturen einzubinden?

  • Welche bevorzugten Anwendungsfälle und Einsatzvorteile bietet die Tape-basierter S3 Object Storagelösung 'PoINT Archival Gateway’.

Weitere Informationen zum Thema finden Sie auf der Webseite des Storage Consortium unter www.storageconsortium.de

Moderne Datenverwaltung mit Object Storage unter Verwendung einer neuen Speicherklasse

24 March, 2022 - 17:28

Speicherverwaltungs-Technologien, um die zunehmende Lücke zwischen Datenwachstum und Infrastrukturbudget zu schließen. "Flash - Disk - Tape - Cloud - Object - Cold Storage" - Wie passt das alles zusammen?

Norbert Deuschle vom Storage Consortium im Gespräch mit Ines Wolf - Managerin Pre-Sales CE der Firma Quantum. Ein technischer Podcast mit Details zum Quantum Active Scale Cold Storage - Speicherlösungsangebot.

Im einzelnen werden folgende Punkte angesprochen und detaillierter behandelt:

  • Was sind gerade die größten Herausforderungen bei der Speicherung, dem Zugriff und der Verwaltung im Zusammenhang mit einer langfristigen Aufbewahrung von Massendaten? Was bedeutet Cold Storage?

  • Welche Zugriffsmöglichkeiten ergeben sich auf Basis welcher Technologien?

  • Wie kann eine moderne Speicherverwaltung unter Einbeziehung von Storageklassen dabei helfen, kalte Daten bei Bedarf wieder "zum Leben" zu erwecken?

  • Disk (HDD), Tape und die Cloud (S3) ? Wie passen die Technologien zusammen. Welche Anforderungen ergeben sich im Gegensatz zu HDDs beim Schreiben auf Band (Mengen, Kosten, Verwaltung usw.)

  • Wie lassen sich die daran beteiligten verschiedenen Speichertechnologien möglichst einheitlich verwalten?

  • Welche Rolle spielt Object Storage im Rahmen der Quantum Active Scale Cold Storage - Technologie? Was unterscheidet diese von anderen Lösungsansätzen?

  • Intelligentes Data Staging, Tape Mgmt., 2D Erasure Coding, 3 GEO DDP usw. und weitere Optionen.

  • Warum bestimmte Kunden Cold Storage und Objektspeicher lieber on-premise implementieren? Vorteile gegenüber der Public Cloud.

  • Wie lässt sich die Verbindung zu Cloud Deployments (S3 / Glacier / API-Ansatz) realisieren. Wie kann Tape in Zusammenhang mit S3, Cloud und Objektspeicher genutzt werden?

  • Möglichkeiten, die Lösung als ‚Storage as a Service’ zu beziehen (pay-as-you-use ), ähnlich wie bei Public-Cloud - Angeboten.

Storage für künstliche Intelligenz (KI): Was kennzeichnet geeignete Speichertechnologien?

15 February, 2022 - 18:28
QLC-Flash, Storage Class Memory (SCM), Filesystem-Software und hochparallele Speicher-I/O-Architekturen für KI-Infrastrukturen. Zum Inhalt des Podcast: Moderne Speichertechnologien leisten in Bezug auf ihre Leistung, Skalierbarkeit und Kapazität viel mehr als noch vor drei bis fünf Jahren, was sich wiederum auf alle wesentlichen Aspekte von KI-Projekten wie Datenpflege und -Management bis hin zum Datenbanken-Design positiv auswirken kann. Ein Beispiel: Bei Deep Learning (DL) Projekten bedeutet ein langsamer Speicher immer eine langsamere maschinelle Lernleistung, denn das Deep Neural Network stellt ein Abbild eines massiv parallelen vernetzten Modells dar, bei dem bis zu Milliarden von Neuronen lose miteinander verbunden werden, um ein einziges Problem zu lösen. GPUs wiederum sind massiv parallele Prozessoren, bei denen jeder einzelne aus Tausenden von lose gekoppelten Rechenkernen besteht, um 100x höhere Leistungswerte und mehr als eine Standard CPU zu erzielen...

Kontinuierlicher Datenschutz (CDP) zur Erweiterung von Backup-Restore-Verfahren

9 December, 2021 - 14:25
Eine Übersicht zu Leistungsmerkmalen, Einsatzbedingungen und Positionierung von Continuous Data Protection (CDP) im Zusammenhang mit Backup-/Restore und Disaster Recovery (D/R). Um was geht es in diesem Blogpost? Kontinuierlicher Datenschutz- oder auch Datensicherung (Continuous Data Protection, CDP) speichert automatisch alle Änderungen an Daten. Falls eine Modifikation erfolgt, werden je nach Implementierung kontinuierlich oder annähernd in real-time Kopien erzeugt. Im Vergleich dazu laufen Backup-Jobs mit Hilfe von Snapshots ein- oder mehrmals zu bestimmten Zeiten (periodisch). CDP ist im gewissen Sinn eine Backup-Weiterführung, allerdings mit Vorteilen in Bezug auf den Datenschutz, der Geschwindigkeit beim Restore, Migration, Datenverfügbarkeit und Disaster Recovery-Möglichkeiten; zudem besteht die Option, D/R-Tests on-premise und-/oder in Verbindung mit der Cloud einfacher und damit auch häufiger umzusetzen. In diesem Podcast werden im wesentlichen folgenden Themen behandelt: Warum überhaupt CDP und was unterscheidet kontinuierliche Datensicherung von Standard-Backup-Verfahren? Wie arbeitet CDP? Welche Einschränkungen gilt es bei CDP zu beachten?Wo liegen die Herausforderungen bei Backup-Verfahren ohne CDP-Funktionen?

Kosten, Komplexität und Risiken der Cloud reduzieren - Ein Experten-Podcast mit NetApp und Cancom

14 October, 2021 - 09:36

Herausforderung „Hybride Cloud-Infrastruktur“; wo besteht Handlungsbedarf? Ein Gespräch zu Lösungen und Trends

Zum Podcast-Inhalt: Der Trend zu Software-Definierten- und hybriden Cloud Infrastrukturen ist einerseits nicht von der Hand zu weisen, wirft aber Fragen auf: Welche Datenmanagement- und Cloud-Strategie ist für mein Unternehmen geeignet, was sind die zentralen Herausforderungen die es zu beachten gilt (Sicherheit, Kosten, Komplexität) und wie positioniert sich ein bislang eher traditionell an on-premise-Speicherlösungen orientierter Anbieter wie NetApp in diesem dynamischen Marktumfeld? Und welche Schwerpunkte im Lösungs-/Projektgeschäft sind dabei für ein IT-Dienstleistungsunternehmen im Bereich der Digitalen Transformation wie Cancom zentral? Diese und weitere Fragen werden (Hörzeit: ca. 26 Min.) im Rahmen einer Q & A in diesem Podcast genauer besprochen.

Dazu stehen Ihnen mit Axel Frentzen, NetApp Senior Technical Partner Manager und Daniel Harenkamp, Solution Architect bei Cancom, zwei erfahrene Experten für die Bereiche Backup, Hochverfügbarkeit, Clouddaten- und Speichermanagement zur Verfügung; die Fragen stellt Norbert Deuschle vom Storage Consortium.

Im Einzelnen werden im Podcast folgende Themenbereiche behandelt (Auszug):

Was sind für ihre Kunden derzeit die größten Herausforderungen im Bereich der Datenverwaltung?

Im Zuge der „Cloudifizierung“ stellen Unternehmenskunden Flexibilität, Sicherheit, Vereinfachung und Kostenreduzierung in den Mittelpunkt ihrer strategischen Initiativen zur Daten- und Speicherverwaltung. Was sind die spezifischen NetApp-Mehrwerte in der Cloud?

Cloudifizierung und die Herausforderungen im Hinblick auf Komplexität, Datenschutz (Sicherheit) und das Einhalten von Compliance-Richtlinien Sicherheit / Cyberprotection / Ransomware und Backup-Restore. Wo sieht ein Dienstleister wie CANCOM aus Projektsicht hier aktuellen Handlungsbedarf?

Die Cloud ist nicht nur ein Storage-Thema, sondern betrifft die Compute- und IT-Infrastrukturseite generell. Im Zusammenhang mit der Digitalisierung werden Anwendungsseitig technologische Entwicklungen wie z.B. API-gesteuerte Lösungen auf Basis von Microservices sowie Container wichtiger (cloud-native-Ansätze).

Wie adressieren NetApp und Cancom Lösungsseitig diese Entwicklungstrends?

Was sollten Kunden tun, um den für sie jeweils möglichst kosteneffizientesten Weg in die Cloud zu finden?

Ist „lift & shift“ eine Lösung? Wie lassen sich die Infrastrukturkosten in der Cloud bestimmen / was kostet mich die Cloud?

Welche Kostenoptimierungs-Potentiale lassen sich nutzen?

Welche Daten speichert man wo (Handling, Sicherheit, Kosten)? Space Efficency Features wie Deduplication und Compression Data Tiering in günstigeren kalten Speicher (S3 / Blob)

Zentrale Datenhaltung – dezentral nur Caching (z.B. GFC) Sicherheit durch Ransomwareschutz via Snapshots, Replikation der Snapshots, Fpolicy / VSCAN etc.

Neues S3-Protokoll in ONTAP

Storage Anbindung für Kubernetes Platformen (Trident) Applikationskonsistenter Backup Service für Kubernetes-Apps (Astra Control)

Firmenübernahmen wie DataSense, Talon, Cloudjumper... FinOps und Security via NetApp Spot, Cloudcheckr usw...

Persistenter Speicher und Cloud-native IT-Infrastrukturen

29 September, 2021 - 12:20

Gerade weil sich moderne Applikations-Arbeitslasten stärker in Richtung Container verschieben, steht der Storage weiterhin im Mittelpunkt.

Teil 1: Als Container-Technologien wie Docker zu umfangreichen Orchestrierungslösungen mit Kubernetes führten, lag der Fokus nicht primär auf der Bereitstellung von persistenten „Enterprise-Class-Storage" Funktionalitäten. Für Anwender führt dies immer wieder zu Schwierigkeiten im Zusammenhang mit der Storage-Bereitstellung, zumal Kubernetes selbst generell nicht gerade einfach zu verwalten ist.

Klassischer Enterprise Storage rechnet nicht mit kurzlebigen, sprunghaften Dev-Ops-Workloads. Auch Container Storage Interface (CSI) Implementierungen lösen das Problem nicht vollständig, denn mit der Erstellung und dem ‚Ableben’ von Containern werden auch die Verbindungen zu den Speicher-Volumes verändert. Diese Prozesse belasten wiederum den Unternehmensspeicher, vor allem bei komplexen schnellwachsenden und dynamischen Umgebungen. Wichtige Themen wie Datensicherheit, Replikation, Thin Provisioning, Hochverfügbarkeit, Backup-Restore und weitere speicherbezogene Funktionen können damit zu einer echten Herausforderung werden...

Im nächsten Podcast zu diesem Thema (Teil 2) soll dann näher auf den Bereich Cloud-native Speicherarchitekturen oder 'von SAN über HCI zu CAS (container attached storage)' eingegangen werden.

Unternehmensweite Datensicherungs- und Disaster-Recovery Strategien gegen Cyberangriffe, Teil 2

4 August, 2021 - 11:58

Diskussionsrunde (Teil 2) mit Experten der Firmen Cancom SE und Quantum.

Ratschläge und Entwicklungstrends im Bereich von Datensicherung-/Restore, Disaster Recovery und Schutz der IT-Infrastruktur. Die Fragen stellt Norbert Deuschle (Storage Consortium).

Zum Inhalt: Cyber-Angriffe sind für Betroffene mit teils massiven wirtschaftlichen Schäden und betrieblichen Beeinträchtigungen verbunden. Immer noch spielt dabei die Corona-Pandemie weltweit Cyberkriminellen in die Hände, während Unternehmens-Backups selbst verstärkt zu einem Angriffsziel werden. Wie lassen sich Angriffe auf die eigene IT-Infrastruktur pro-aktiv vermeiden und welche Strategien & Lösungen gibt es für effektive Gegenmaßnahmen?

Dieser zweite Teil unserer Podcast-Episode (17:03 min.) befasst sich ausführlich mit den folgenden Punkten und Empfehlungen:

1. Daten müssen unveränderbar sein

2. Unproduktive Daten aus dem Backup ausschließen – Stichwort: Datenklassifizierung

3. Transparenz – Sauberes Monitoring auch für Backups - Stichwort: Änderungsrate

4. Einsatz von KI und maschinellem Lernen im Backup Prozess - Stichwort Software

5. Fokus auf kurze Wiederherstellungszeiten (restore)

Im technischen Bereich werden u.a. folgende Optionen diskutiert:

  • Backup to (2) Disk - Fast

  • Backup 2 Disk – Archiv

  • Backup 2 Tape – Log Term

  • Backup 2 Cloud – Long Term

  • Tape/ Disk/ Object Storage: Wann kommt welche Technologie zum Einsatz? Worauf ist bei der Auswahl entsprechender Management-SW-Lösungen zu achten?

  • Backup to Disk, Secure Snapshot

  • Was bedeutet Daten-Unveränderbarkeit im Bereich Backup?

Weitere Punkte die besprochen werden, umfassen:

  • Welche Technologien sind unverzichtbar, um gegen Angriffe möglichst pro-aktiv gewappnet zu sein?

  • Die Cloud als Erweiterung bestehender Datenverwaltungs- und Speicherplattformen. Was bedeutet das für den Datenschutz und  Sicherheitsmaßnahmen wie Backup-/Restore, um über das eigene Netzwerk hinaus die Datensicherheit gewährleisten zu können?

  • Eine Absicherung gegen Cyberangriffe kann je nach Infrastruktur sehr komplex sein, eine effektive Strategie besteht in der Regel aus mehreren Ebenen, Prozessen und Lösungen. Welche Technologien sind unverzichtbar, um gegen Angriffe möglichst pro-aktiv gewappnet zu sein?

  • Edge Computing, IoT, Digitalisierung etc. vergrößern die Angriffsflächen für Cyberattacken und schaffen neue Herausforderungen beim Schutz von Daten. Welche Bedeutung kommt der Sicherung von Netzwerken und den einzelnen Datenendpunkten zu und wo liegen derzeit die größten Herausforderungen?

Ein Fazit: Wie sind die aktuellen Bedrohungsszenarien einzuschätzen? Werden potentielle Angriffe künftig noch weiter zunehmen und falls ja, in welchen Bereichen?

Unternehmensweite Datensicherungs-Strategien gegen Cyberangriffe und Ransomware, Teil 1

27 July, 2021 - 12:39

Herzlich Willkommen zu dieser neuen Podcast- Episode des Storage Consortium.

Inhalt: Cyberattacken und Ransomware-Bedrohungen sind für Betroffene mit Teils massiven wirtschaftlichen Schäden und betrieblichen Beeinträchtigungen verbunden. Immer noch spielt die andauernde Corona-Pandemie dabei weltweit Cyberkriminellen in die Hände und Unternehmens-Backups werden inzwischen selbst zu einem attraktiven Angriffsziel. Deshalb ist es wichtig, sich damit aktiv auseinander zusetzen, insbesondere zu Fragen, wie sich Angriffe auf die eigene IT-Infrastruktur pro-aktiv vermeiden lassen und welche (Sicherungs- und Disaster-Recovery) Strategien& Lösungen als Gegenmaßnahmen sich in der Praxis bewährt haben.

In diesem ersten Teil gehen wir insbesondere darauf ein, ob es heute überhaupt noch ausreichend ist, sich im IT-Betrieb auf eine bislang bewährte Datensicherungsumgebung- nebst Technologien und Prozessen zu verlassen? Weitere Punkte die besprochen werden, sind:

  • Wie lässt sich eine moderne und gut durchdachte Sicherungsstrategie beschreiben? Welche zentralen Elemente beinhaltet ein solcher Ansatz?

  • Backups sind zu einem akttraktiven Angriffsziel bei Ransomware & Co. geworden. Was sind essentielle Sicherungsmaßnahmen zum Schutz der Backup-Infrastruktur?

Das Experten-Panel für diesen Podcast (15:50 min.):

  • Herr Bjoern Hoeger, Manager Hybrid Data Center & Architecture - Firma Cancom, einem IT-Dienstleistungsunternehmen im Bereich der Digitalen Transformation

  • Herr Bernhard Kölbl - Presales System Engineer - Firma Quantum, einem weltweit operierendem Hersteller  & Entwickler von Hardware- und Software-Lösungen im Bereich der unternehmensweiten Speicher- und Datenverwaltung.

  • Moderation und Fragen: Norbert Deuschle, Storage Consortium

Der zweite Teil dieser Podcast-Episode (geplant für Anfang August 2021) wird sich dann detaillierter mit folgenden Fragestellungen auseinandersetzen:

  • Gibt es ‚best-pratices’, um eine Strategie zur Bekämpfung von Ransomware und Cyberübergriffen (inkl. Bitcoin-Mining) im Unternehmen zu etablieren oder ist jedes Unternehmen- bzw. Organisation individuell zu betrachten?

  • Immer mehr Firmen nutzen die Cloud als Erweiterung ihrer bestehenden Datenverwaltungs- und Speicherplattform. Was bedeutet das für den Datenschutz und  Sicherheitsmaßnahmen wie Backup-/Restore, um über das eigene Netzwerk hinaus die Datensicherheit gewährleisten zu können.

  • Eine Absicherung gegen Cyberangriffe kann je nach Infrastruktur sehr komplex sein, eine effektive Strategie besteht in der Regel aus mehreren Ebenen, Prozessen und Lösungen. Welche Technologien sind unverzichtbar, um gegen Angriffe möglichst pro-aktiv gewappnet zu sein?

  • Tape/ Disk/ Object Storage: Wann kommt welche Technologie zum Einsatz? Worauf ist bei der Datensicherungs- und Management-Software zu achten?

  • Edge Computing, IoT und die Digitalisierung generell vergrößern die Angriffsfläche für Cyberattacken und schaffen neue Herausforderungen beim Schutz und der Sicherung von Daten. Welche Bedeutung kommt der Sicherung von Netzwerken und den einzelnen Datenendpunkten zu und wo liegen die größten Herausforderungen für die Betreiber?

  • Wie sind die aktuellen Bedrohungsszenarien einzuschätzen? Werden potentielle Angriffe noch weiter zunehmen oder ist das letztlich Phänomen vorübergehend, über das man sich in einigen Jahren keine großen Gedanken mehr machen muss?

Software-Definierte Daten- und Speicherverwaltung mit Scality ARTESCA

1 June, 2021 - 11:10
Im Tec-Podcast nachgefragt: Scality RING und ARTESCA; flexible Optionen zur anwendungsoptimierten, modernen Datenverwaltung. Zum Inhalt: Kritische Daten werden heute überall und in immer größerer Menge erzeugt – angefangen von traditionellen Enterprise-Anwendungen in Rechenzentren über neue SaaS Apps in der Cloud, Industrial Internet of Things Anwendungen und Sensoren – bis hin zu Edge Lokationen in Außenstellen mittels Video-Überwachung oder Maschinendaten-Sensoren. Aber natürlich trägt dazu auch der verstärkte Einsatz von ML und künstlicher Intelligenz im Rahmen der Digitalisierung massiv zu dieser Entwicklung bei.
Der 2009 in Paris gegründete und inzwischen weltweit agierende Datenmanagement-und Speicher-Softwareanbieter Scality hat es sich zur Aufgabe gemacht, dieses Datenwachstum hochskalierbar und leistungsfähig zu verwalten, zu speichern sowie auswertbar zu mache; dies schließt aktuelle Anforderungen, wie sie aus Cloud-nativen Anwendungsumgebungen (Stichwort: Kubernetes & Co.) resultieren, ein.
Im folgenden Gespräch mit Christoph Storzum - Regional Direktor DACH bei Scality - gehen wir in Bezug auf das aktuelle Lösungsangebot und die Strategie des Anbieters detailliert ein.

Quantum ATFS: Neue filebasierte Speicherverwaltung mit integrierter zero-Touch Datenklassifizierung. Wo liegen die Vorteile und Einsatzgebiete?

3 May, 2021 - 15:27

Im Gespräch mit Frau Ines Wolf, Managerin Pre-Sales CE bei der Firma Quantum sprachen wir exklusiv über die neue ATFS - File Storage Software mit integrierter Datenklassifizierung des Unternehmens; insbesondere darüber, wie die Lösung aus Sicht der Daten- und Speichermanagement-Expertin ihnen helfen kann, die beschriebenen Herausforderungen zu adressieren. Die Besonderheit von ATFS besteht in der Zusammenführung von automatisierter Datenklassifizierung, Datenmanagement und Datenspeicherung innerhalb einer Plattform.

Zum Hintergrund: rasches Datenwachstum, mangelnde Sichtbarkeit und Kontrolle sowie ein deutliches Mehr an Datenbewegungen über verteilte Architekturen stellen Organisationen vor Herausforderungen; insbesondere die starke Zunahme von unstrukturierten Daten will kosteneffizient beherrscht werden. Eine durchgängige, sichere und transparente Datenverwaltung –vor-Ort und-/oder in der Cloud - ist das Ziel. Hinzu kommt: Technische Fortschritte in den Bereichen künstlicher Intelligenz und Analyse führen zu geänderten und neuen Anforderungen an den Daten-Lebenszyklus. Dazu gehört auch die Notwendigkeit, die Verfügbarkeit der Daten ggf. über Jahrzehnte hinweg zu gewährleisten und sie vor Datenverlust, Katastrophen und Cyber-Angriffen zu schützen...

Mit modernen Datensicherungs-Strategien die TCO im Unternehmen senken

21 April, 2021 - 16:28
In dieser dritten Podcast-Folge sprechen wir mit Herrn Wolfgang Huber, Regional Director, Central Europe bei Cohesity darüber, wie sich aus Sicht seines Unternehmens mit der richtigen Datensicherungsstrategie die Gesamtkosten (TCO) senken lassen und welche konkreten betrieblichen Vorteile sich daraus ergeben, wenn veraltete Backuplösungen durch einen modernen Architekturansatz ersetzt werden. Dies insbesondere vor dem Hintergrund, dass Backups, Archive, Dateisysteme, Objektspeicher und Daten für Tests, Analsen und Entwicklung sich vielfach in Infrastruktursilos befinden und damit eine fragmentierte Datenlandschaft darstellen...

Objektdaten-Speicherung: Beschaffungskriterien und Einsatzmerkmale

8 April, 2021 - 14:44
Auf welche Randbedingungen sowie Funktionsmerkmale sollten Unternehmen bei der Evaluierung von Objektspeicherlösungen besonders achten?
Katalysatoren für den Einsatz von Objekt-Speichersystemen sind das rasche Datenwachstum und neue Anwendungen, was verstärkte Investitionen in hybride Cloud-Implementierungen nach sich zieht. Traditionelle Dateisysteme spielen ebenfalls eine wichtige Rolle, um Objektstorage zu nutzen ohne bewährte Anwendungen aufwändig zu modifizieren, die im Zusammenhang mit CIFS- oder NFS-Zugriffen entwickelt wurden...

Backup und Ransomware: Angriffe möglichst frühzeitig erkennen und verhindern

25 March, 2021 - 18:40

Interaktiver Podcast mit Cohesity zu den IT-seitigen Herausforderungen von Cyberattacken mit Lösungsvorschlägen.

Untersuchungen zufolge melden fast die Hälfte der befragten Unternehmen seit dem Umstieg auf das Home Office eine deutliche Zunahme von Cyber-Angriffen; zudem werden diese immer ausgefeilter. In diesem Beitrag als Q & A mit Herrn Wolfgang Huber, Regional Director, Central Europe, bei Cohesity, dreht es sich schwerpunktmäßig darum, ob sich Ransomware-Angriffe überhaupt frühzeitig erkennen und verhindern lassen und wo die größten Gefahren für die betroffenen Betriebe lauern.

Weiter wird in dem Gespräch auf Backup- und Recovery als „last line of defense“ eingegangen und mit welcher Palette an Funktionen eine moderne Datensicherungs-Strategie im Unternehmen diese Bedrohungen möglichst nachhaltig adressieren kann. Abschließend werden einige best practises auf Basis von Cohesity-Technologien gegen Ransomware-Angriffe vorgestellt.