Storage Consortium

Storage Consortium

About

Das Storage Consortium fokussiert aktuelles technisches & wirtschaftliches Wissen für IT Organisationen und Unternehmen – Verlagsunabhängig und unter Mitarbeit sowie Themenauswahl eines erfahrenen Industrieexperten. Die Schwerpunkte des Online-Angebotes - neben dem Hauptgebiet Datenmanagement und Speicherverwaltung - bilden praxisnahe Informationen & Trends zu KI, Big Data, Cloud Computing... im Zusammenhang mit Server- und Netzwerkinfrastruktur-Lösungen für professionelle Rechenzentren und Cloud-Services-Anbieter. Thematisch top-aktuelle Podcasts und unser umfangreiches Podcast-Archiv finden Sie in der zugehörigen Rubrik unserer Webseite unter www.storageconsortium.de

Available on

Community

260 episodes

Speicher- und Datenverwaltungs-Herausforderungen für Unternehmen - Ein Gespräch zu Trends und Lösungen mit dem Datei- und Objectstorage-Anbieter Cloudian

EINE PODCAST-EPISODE MIT DEM DATEI- UND OBJEKTSPEICHER-ANBIETER CLOUDIAN* zu kundenseitigen Anforderungen und strategische Antworten auf den stetig steigenden Speicherbedarf im Bereich von unstrukturierten sowie semi-strukturierten Daten, akuell verstärkt im Zusammenhang mit KI- und hybriden Cloud-Anwendungen. Mit Kundenbeispielen... *Gesprächspartner ist Herr Carsten Graf, VP EMEA Sales, bei Cloudian®. Cloudian ist ein spezialisierter Datei- und Objektspeicher Anbieter (aus dem Silicon Valley) und auf S3-API-Speichersysteme spezialisiert. Das Unternehmen stellte erstmals 2011 seine objektbasierte Plattform HyperStore® vor. MODERATION UND FRAGEN: Norbert Deuschle vom Storage Consortium. EINZELNE PUNKTE, DIE IN DIESEM PODCAST NÄHER BEHANDELT WERDEN (Hörzeit 20 min): Object Storage ist mit File Storage ein wesentlicher technologischer Aspekt jeder zukunftsorientierten Speicher- und Datenverwaltungsstrategie im größeren Maßstab. Objekt Storage als ein technisches Element in der Cloud hat die Datenspeicherung selbst in einen Service verwandelt (von CAPEX zu einer berechenbaren Betriebsausgabe, OPEX). Gerade entstehen mit dem raschen Wachstum im Umfeld von (generativer) KI neue Herausforderungen. Skalierbare Speicherservices für primär unstrukturierte Daten werden deshalb verstärkt nachgefragt. Ein weiterer Aspekt betrifft die Modernisierung und Integration mit Datensicherungslösungen, mit dem Schwerpunkt auf schnellen Restore und Unveränderlichbarkeit, sowie erhöhtem Datenschutz auf Grund von steigenden Cyberbedrohungen. Performance-Aspekte und Cloud-native Anwendungsszenarien sind weitere Aspekte des modernen Daten- und Speichermanagements. In diesem Zusammenhang gilt es die dynamischen Entwicklungen im KI-Umfeld auf der IT-Infrastrukturseite zu berücksichtigen und betrieblich sinnvoll abzubilden. In Summe ergeben sich daraus sich eine Reihe komplexer Anforderungen aber auch Lösungsansätze, über die wir in dieser Episode sprechen werden. Die (technologischen) Randbedingungen in diesem Zusammenhang sind: __ KI UND DATA ANALYTICS, FLASH PERFORMANCE BACKUP- UND CYBERPROTECTION, DATA PRIVACY DEVOPS-INITIATIVEN, CLOUD-NATIVE, KUBERNETES & CO. __ Weitere Informationen zum Thema finden Sie unter www.storageconsortium.de

20m
Mar 06, 2024
Wichtige Unternehmensdaten auf sicheren Bandbiblotheken gegen Cyberangriffe schützen

Kritische Sicherheitsmerkmale von Tape-Automatisierungs-Systemen für mehr Schutz vor Ransomware & Co. Um was geht es in diesem Podcast? Tape ist technologiebedingt bereits ein sehr sicheres Speichermedium, da es vom Netz getrennt als sog. „Air-Gap"-Speicher fungieren kann und zudem mit AES-256-Bit-Verschlüsselung sowie WORM-Fähigkeiten ausgestattet ist. Die Erweiterung um Multi-Faktor-Authentifizierung (MFA) ist eine weitere Möglichkeit, den Sicherheitsstandard zu erhöhen. Aktuell werden automatisierte Bandbiblotheken verstärkt als hochsicherer Daten-Tresor verwendet, entweder zur Speicherung dauerhafter Archivkopien - Stichwort „kalte Daten“ - oder als Zielort von Offline-Datenkopien (3-2-2-1 Regel) zum Schutz vor Ransomware- sowie Malware-Infektionen. Norbert Deuschle vom Storage Consortium hat bei Frau Ines Wolf, Managerin Presales Central Europe, des Speicherspezialisten Quantum nachgefragt, über welche erweiterten Sicherheitsfunktionen konkret eine moderne Tape-Library neben den üblichen Standardmaßnahmen-/Verfahren im Zuge stetig steigender Anforderungen an die Datensicherheit verfügen sollte. In diesem Zusammenhang sind nach Ansicht der Expertin fünf Punkte von besonderer Bedeutung...

8m
Feb 27, 2024
Bessere KI-Ergebnisse mit Graphdatenbank-Technologien?

UM WAS GEHT ES IN DIESEM PODCAST? GENERATIVE KI ist für Unternehmen eine der Schlüsseltechnologien mit einem wirklichen Transformations-Potenzial. Als KI-Enabler bereits etabliert haben sich dazu Graphdatenbanken. Anbieter sind Unternehmen wie ArangoDB, TigerGraph, Amazone Neptune, DataStax, Oracle, IBM, Redis, GraphDB, Neo4j und weitere... KNOWLEDGE GRAPHEN verknüpfen heterogene Daten zu einem semantischen Kontext, in dem sie Daten und Datenbeziehungen als gleichwertig behandeln. Dies schafft ein geeignetes Umfeld für Netzwerkanalysen, Deep und Machine Learning sowie KI. An der Seite von LLMs setzen Graphen beispielsweise notwendige Grenzen und Prioritäten, um KI-Ergebnisse genauer, erklärbar und nachvollziehbar zu machen. Das Training von Machine Learning(ML)- und Large Language-Modellen(LLM) erfordert hohe Rechenleistungen und Speicherkapazitäten. Neue Prozessor-Serien und Super-GPUs verschieben die Grenzen des Machbaren dabei deutlich nach oben. Die Experten des Graphdatenbanken-Anbieters Neo4j werfen für uns nachfolgend einen Blick auf aktuelle Treiber sowie die tatsächlichen Folgen für das KI-Ecosystem, inklusive noch zu lösender KI-Hürden. Zusammengefasst sind 8 Punkte erwähnenswert:

10m
Jan 24, 2024
File System Storage und Objektspeicher: Trend zu mehr Software und Datenschutz bei flexibleren Verbrauchsmodellen

Nicht nur sichere Technologien, sondern auch flexiblere Verbrauchsmodelle sowie Beschaffungsangebote (STaaS) für konsolidierte software-definierte Datendienste werden verstärkt gefragt… Um was geht es in diesem Podcast? Fortschritte bei Digitalisierung, Vernetzung und Entwicklung neuer stark datengetriebener Anwendungen im Verbund mit hybriden Cloud-Deployments hat zu einem weiteren Wachstum im Bereich von semi- und unstrukturierter Daten geführt. Ältere Speichersysteme gerade im NAS-Umfeld stoßen dann schnell an ihre Grenzen, denn die möglichst nahtlose, unkomplizierte Erweiterung und Verwaltung von Leistung und Kapazität lässt sich in einer festen Hardware-Architektur nur bis zu einer bestimmten Größe sinnvoll abbilden. Ein weiterer kritischer Punkt betrifft die Zunahme von Cyberangriffen, besonders in Form von Ransomware. Diese zielen vermehrt auf unstrukturierte Datensätze und Backupdaten. Integrierte Cyber-Security-Funktionalitäten für verteilte Dateisysteme und Objektspeicherplattformen werden deshalb notwendig, je mehr Angriffe auf diese Systeme und Daten stattfinden. Vom Anbieter verwaltete Cloud-basierte Speicherlösungen as-a-Service (STaaS) als Ergänzung oder Ersatz für eigene Speicherinfrastrukturen vor Ort können eine Alternative darstellen (variable Kosten, Sicherheit, reduzierte Komplexität, immer die aktuellste Technologie etc.). Weiterer Vorteil: der Hersteller übernimmt die Verwaltung, Wartung und den Support und damit die komplette Verantwortung und je nach Angebot auch Sicherheit der Speicherumgebung... Mehr dazu in diesem Podcast und auf unserer Webseite www.storageconsortium.de

7m
Nov 28, 2023
Backupdaten effektiv gegen Cyberangriffe schützen

Sichere Snapshots, Air Gap und Immutability... DIE SICHERE OFFLINE-AUFBEWAHRUNG VON DATENKOPIEN FÜR BACKUP-ZWECKE ist ein entscheidender Faktor, um Lösegeldforderungen zu begegnen und die saubere Wiederherstellung von unternehmenskritischen Daten sicherzustellen. Moderne Verfahren sichern virtuelle Maschinen über S3 direkt auf einen Objektspeicher on-premise und-/oder in der Cloud. Diese unveränderliche Speicherung (immutable Storage) über den mehrstufigen Schutz mit S3 Object Lock hat sich in der Praxis bewährt. Offline Speichermedien mit "Air Gap" haben keine direkte physische Verbindung zum Netzwerk und sind eine wirksame Barriere gegen Ransomware und auch Malware. Neben Festplatte oder Flash erlaubt es der Einsatz von Bandspeicher-Systemen (Tape) sowie Daten-Deduplizierung, auch große Kapazitäten energieeffizient zu sichern und bei Bedarf zeitnah wiederherzustellen; ohne wesentliche Betriebsunterbrechungen. Das physische Air Gap ist ein sicherer Weg, um kritische Daten vor Ransomware zu schützen. Die Technik ist aber wegen ihres Offline-Charakters nicht für die schnelle Wiederherstellung geeignet. Wie kann diese Herausforderung mit Backup-Verfahren und Lösungen wie (virtual) Appliances vor-Ort angegangen werden?

6m
Oct 31, 2023
Speicherkosten für kalte Daten reduzieren und gleichzeitig die Nachhaltigkeitsziele im Unternehmen erreichen

ESG, Stromkosten, CO2-Emissionen und steigende Datenmengen im semi-/unstrukturierten Bereich - Ist Active Cold Storage die Lösung? Im interaktiven Tech-Podcast mit Firma Quantum nachgefragt… ZUM INHALT DIESES PODCASTS (25 min.): Die Weiterentwicklung von Rechenzentrum-Infrastrukturen aus Sicht der Energieeffizienz nimmt an Bedeutung zu. KI, ML, Cloud-Computing, immer mehr Daten und die schnelle Entwicklung neuer Business-Apps führen nicht nur zu unvorhersehbaren Auslastungen innerhalb der IT-Infrastruktur, sondern auch zu höheren Kosten und Betriebsausgaben im Zusammenhang mit der Speicherung, dem Zugriff und der Verwaltung- besonders im Zusammenhang mit der langfristigen Aufbewahrung von Massendaten (Stichworte: Complinace, unstrukturierte Daten, Cold Storage etc.). NACHHALTIGKEITSZIELE ERREICHEN UND DIE ENERGIEKOSTEN DES UNTERNEHMENS ZU MINIMIEREN – IT-Teams können dazu einen wichtigen Beitrag leisten, wenn sie richtig planen. Hintergrund: die ITK-Technologie steht derzeit für rund 10 Prozent des gesamten Energiebedarfs und ist damit für rund zwei Prozent der weltweit erzeugten CO2-Emissionen mitverantwortlich. Norbert Deuschle vom Storage Consortium spricht in dieser Podcast-Episode mit Frau Ines Wolf - Managerin Pre-Sales CE bei der Firma Quantum (1) zu den aktuelle kundenseitigen Herausforderungen und Lösungen Ihres Unternehmens aus Sicht der Datenspeicherung und Verwaltung. IM EINZELNEN WERDEN FOLGENDE PUNKTE ANGESPROCHEN UND AUSFÜHRLICHER BEHANDELT: Das Kürzel ESG beschreibt (drei) Verantwortungsbereiche von Unternehmen und Organisationen, die verschiedene nachhaltigkeitsbezogene Kriterien beinhalten. Umweltbewusstsein, Energiekosten (E), Emissionsvorgaben (G) etc. Was bedeutet ESG aus Sicht der Speicherverwaltung? Veraltete IT-Infrastrukturen und der Fachkräftemangel sind für viele Unternehmen eine Herausforderung bei der Umsetzung der Nachhaltigkeitsziele. Aus Sicht der IT im Rechenzentrums-Umfeld betrifft das konkret die Modernisierung und den optimierten Einsatz der dazugehörigen IT-Infrastruktursysteme- und Komponenten. Auf viele Daten wird nach einiger Zeit nur mehr selten zugegriffen. Als Konsequenz daraus kann die Migration kaum benutzter inaktiver (kalter) Daten von Festplattensystemen auf stromlose Bandspeicher oder teilweise auf Flash (Metadaten) zur deutlichen Verringerung der CO2-Emissionen beitragen. Voraussetzung: Datenworkflows und den Bedarf beim Kunden verstehen Begrifflichkeiten: Active Cold Storage; near-line storage; HSM, Active Archiving, Datenklassifizierung, Compliance-Vorgaben Warum bestimmte Kunden Cold Storage und Objektspeicher lieber on-premise implementieren? Vorteile gegenüber der Public Cloud. Wie lässt sich die Verbindung zu Cloud Deployments (S3 / Glacier / API-Ansatz) realisieren. Wie kann Tape in Zusammenhang mit S3, Cloud und Objektspeicher genutzt werden? Quantum Active Cold Storage: Strategie und Lösungsangebot

 Neben dem geringeren Stromverbrauch steht die Speicherung auf stromlose Medien wie Tape auch für weniger Abfall und Elektronikschrott (Stichwort: E Umweltverschmutzung). FAZIT Neben Speichermedien nebst Anwendungsprofilen ist der Einsatz von Software-Werkzeugen zur Datenklassifizierung und als Vorbereitung zur Migration zentral. Weiter spielen Verfahren zur Datenreduktion wie Deduplizierung, Kompression, Erasure Coding sowie HSM in Verbindung mit near-line Storage (active archving) und die mögliche Anbindung an die Cloud eine Rolle. Richtig umgesetzt können über das Jahr gerechnet daraus teils erhebliche Stromkosteneinsparungen pro KWh pro Anwendung und Speicher resultieren. In der richtigen Kombination von modernen Hardware- mit Software-Ressourcen lassen sich aus Sicht von Energieeffizienz und Nachhaltigkeit reale Synergien erzeugen.

24m
Sep 14, 2023
Unstrukturierte File-Datenverwaltung mit NASUNI als Service aus der Cloud

Interaktiver Podcast mit Experten der Firmen Cloudeteer und NASUNI zur SAS-basierten NAS-Plattform des Anbieters. Kundenseitige Herausforderungen und strategische Antworten auf einen stetig steigenden File (Storage) Bedarf... UM WAS GEHT ES IN DER EPISODE? File-Daten Speicherdienste im Cloud-Zeitalter erfreuen sich einer verstärkten Nachfrage. Die Gründe liegen kundenseitig primär in der Notwendigkeit begründet, IT-Infrastrukturen so zu verändern und zu modernisieren, dass unter dem Strich für das Unternehmen - sowohl on-premise als auch in der Cloud - ein deutliches Mehr an Flexibilität und Vereinfachung resultiert. Dies gilt ebenfalls für Themen wie Backup-Restore und Datenschutz im Zusammenhang mit Cyberbedrohungen durch Ransomware & Co. Aber auch im Umfeld des Managements von unstrukturierten Daten generell besteht Handlungsbedarf, gerade was die IT-Kostenseite (CAPEX vs. OPEX) betrifft. GESPRÄCHSPARTNER UNTER EINBEZIEHUNG DER LÖSUNG DER ANBIETERS NASUNI SIND MATTHIAS BRETAG, CHAPTER LEAD AZURE UND MULTICLOUD CONSULTANT BEI FIRMA CLOUDETEER, EIN MICROSOFT- UND NASUNI-LÖSUNGSPARTNER, ZUSAMMEN MIT MARKUS WARG, FIELD TECHNICAL DIRECTOR EMEA BEI NASUNI. Die Moderation und Fragen stellt Norbert Deuschle (Storage Consortium). Wichtige Punkte, die im Podcast ausführlich behandelt werden (Hörzeit 27 min): Prognosen zeigen, dass sich der Speicherbedarf im unstrukturierten Bereich in den nächsten Jahren mehr als verdoppeln soll. Klassisches NAS wurde dafür nicht entwickelt. Wie können Kunden im Kontext eines weiter steigenden Kapazitätsbedarf darauf reagieren. Stichworte: mehr Flexibilität (Skalierbarkeit), Vereinfachung (Verwaltung, Fachkräftemangel), Kostenreduzierung (Budgetsituation)... Gründe weshalb die Nasuni Lösung über die Firma Cloudeteer als Lösungspartner verkauft wird. Abgrenzung, Erweiterung und Ergänzung zu Lösungen wie z.B. von Microsoft mit Azure Files etc. Klassische Backup-Ansätze bringen bei großen Mengen an unstrukturierten Filedaten eine Reihe von Herausforderungen mit sich. Typisches Problem im Bereich Backup-Restore: Wie können PB’s an Daten in möglichst kurzer Zeit - und zwar ohne Lösegeld zu zahlen - nach einer Verschlüsselungsattacke schnell wiederhergestellt werden? Weitergehende Ansätze zum Schutz vor Cyberangriffen im Bereich der Public Cloud.
 Die SAS-basierte NASUNI NAS-Plattform als Lösungsansatz zum schnellen Restore nach Verschlüsselungsangriffen. Erweiterte Filezugriffe im Hinblick auf den geschäftlichen Mehrwert und nicht nur die IT (Technik). Stichwort: Information als zentraler Unternehmenswert; Mehrwerte aus unstrukturierten Daten erzeugen. Objekt Storage als technisches Element in der Public Cloud hat die Datenspeicherung in einen Service verwandelt. Prozesse der Datenspeicherung transformieren damit von einer CAPEX-dominierten Funktion zu einer vorhersehbaren Betriebsausgabe, OPEX. Fazit: Die richtige Speicher-Strategie im Bereich von File-Daten kann helfen, die potentielle Lücke zwischen Datenwachstum und IT-Budgets zu schließen. Das Nasuni Datenservice-Modell transformiert traditionelle Datei-Infrastrukturen mit einer Reihe von spezifischen Services und mit der Möglichkeit, einen oder auch mehrere Cloud-Anbieter zu wählen... Weitere Information dazu finden Sie auch auf unserer Webseite.

26m
Sep 05, 2023
KI und Machine Learning für moderne Backup-Restore- und Disaster Recovery-Verfahren

Thema: Von manuell dominierten Backup-Restore Prozessen zu hochgradig automatisierten und datengesteuerten Prozessen. Zum Inhalt dieser Podcast-Episode: Automatisierte sichere Datensicherung und -Wiederherstellungsprozesse sind für viele Betriebe derzeit nicht die Realität. Im Gegenteil, gerade weil die damit verbundenen Prozesse und Technologien immer komplexer und wichtiger werden (um Unternehmen vor Angriffen und Unterbrechungen zu schützen), sind weiterhin jede Menge manueller Eingriffe und Verfahren selbst mit im Spiel. Bei Backup-Lösungen mit Teils veralteter Hardware und Software ist die geforderte schnelle Wiederherstellung nach Cyberangriffen mit vielfältigen manuellen und zeitaufwendigen Prozessen verbunden und kann somit extrem schwierig werden. Moderne KI-gestützte Backups sind über pro-aktive Ransomware-Erkennung oder die schnelle Identifizierung kritischer Daten in der Lage, mit Hilfe von ML-Technologien potentielle Risiken zu minimieren und die Bedrohungserkennung bereits im Vorfeld effektiv zu unterstützen. Die Einführung von KI und maschinellem Lernen macht aus manuell dominierten Backup-Wiederherstellungs (B/R)-Prozessen einen automatisierten und datengesteuerten Prozess, der eine konsistentere Abstimmung bzw. Integration mit IT-Service-Management-Tools ermöglicht. Dies gilt auch für notwendige Testverfahren im Bereich von Disaster Recovery (D/R). Weitere Infos unter www.storageconsortium.de

6m
Aug 31, 2023
Nachhaltigkeit, ESG und Storage: eine technologische Standortbestimmung

Welche Aspekte umfasst das Kürzel ESG und was hat das alles mit Storage zu tun? Tech-Podcast zu einem aktuellen Thema. Zum Hintergrund: Im Rechenzentrum stehen die Speichersysteme - neben Netzwerk und Servern - für einen größer werdenden Anteil am gesamten Stromverbrauch. Im Zuge der verstärkten Bedeutung von ESG als Standard für nachhaltige Anlagen ist die Datenspeicherung neben der Verarbeitung ein zentrales Element. Storage selbst ist mehr als nur ein Speichermedium und schließt den Einsatz geeigneter Datenverwaltungssoftware-Werkzeuge ein. Erst in der richtigen Kombination von Compute-Ressourcen mit Speicherhardware und Software lassen sich aus Sicht von Energieeffizienz und Nachhaltigkeit in diesem Bereich reale Synergien erzeugen. Um was geht es in diesem Podcast? Was versteht man unter ESG? Das Kürzel beschreibt (drei) Verantwortungsbereiche von Unternehmen und Organisationen, die verschiedene nachhaltigkeitsbezogene Kriterien beinhalten. In Bezug auf die Speicher- und Energieeffizienz in Rechenzentren spielen neben den heute verfügbaren Speichermedien als Basistechnologie (Flash, HDD, Tape, und Kombinationen) verschiedene Faktoren eine Rolle. Neben den Anwendungsprofilen selbst ist der Einsatz von Datenklassifizierung als Vorbereitung zur Migration ein wichtiger Punkt. Weiter spielen Verfahren zur Datenreduktion wie Deduplizierung, Kompression, Thin Provisioning und Erasure Coding (anstelle RAID) eine Rolle. Optimal kombiniert und eingesetzt, können über das Jahr gerechnet daraus teils erhebliche Stromkosteneinsparungen pro KWh pro Anwendung und Speicher resultieren. Der Modernisierung und dem optimierten Einsatz der entsprechenden IT-Infrastruktursystemen- und Komponenten kommt aus ESG-Sicht deshalb eine verstärkte Bedeutung zu. Mehr dazu in dieser Podcast-Episode (Hörzeit: ca. 11:45 min.)

11m
Jul 24, 2023
Quantum Corp. bringt mit Myriad neue Cloud-native All-Flash Speicherplattform auf den Markt

Moderne Softwarelösung für File- und Objectstorage auf Basis von NVMe-Flash, RDMA (Fabric) und Shared-Nothing Clustersoftware N-Node-Architektur. Erste Übersicht zu Leistungsmerkmalen und Vorteilen... ZUM INHALT DER PODAST-EPISODE: Quantum Corp. Myriad hat in diesem Frühjahr eine komplett neuentwickelte skalierbare All-Flash File- und Objektspeicher-Softwareplattform vorgestellt, die sowohl on-premise als auch in der Public Cloud betrieben werden kann. Myriad nutzt hierzu die Fortschritte bei modernen Anwendungs-Frameworks und Designs, die noch vor wenigen Jahren in dieser Form nicht verfügbar waren.  Die Lösung führt Inline-Datenservices wie Deduplizierung und Komprimierung, Snapshots und Cloning sowie Metadaten-Tagging ein, um die Verarbeitung von KI- und ML-Daten zu beschleunigen. Dazu werden bewährte Cloud-Technologien wie Microservices und Kubernetes genutzt, um eine einfache Cloud-Lösung zu abzubilden, egal wo diese eingesetzt wird. Daten zwischen Myriad-Clustern und Datei- und Objektspeichersystemen anderer Anbieter sollen sich replizieren lassen. Die Software selbst läuft auf Standard Flash Storage-Server mit hoher Kapazität. Unternehmen können damit ihre alten HDD-basierten Speichersysteme durch eine softwaredefinierte All-Flash-Plattform ersetzen, die höhere Leistung mit größere Skalierbarkeit verbindet und zudem effizienter hinsichtlich Energie- und Rackbedarf ist. Anstelle von File-Locking, das System-CPU plus Speicherressourcen und damit Performance kosten kann, verwendet Myriad ein neues intelligentes "Lock Free" Design, um Schreiblatenzen zu reduzieren. Die Software verwendet speicherseitig ein erweitertes NVMe-Protokoll, das Aufgaben von der RDMA Netzwerk Interface Controller-CPU dazu auf die leistungsstärkere Speicherknoten-CPU verlagert. Die Latenzzeit wird damit sowohl für Schreib- als auch für Lesevorgänge reduziert. Myriad nutzt ferner einen globalen, target-seitigen Lesecache, um die Lese-Latenzzeit weiter zu reduzieren. Das wesentliche Element eines Myriad-Systems ist der sog. transaktionale Key-Value Store als zentrales Repository für alle Daten und Metadaten. Diese Komponente ist über alle Speicherknoten in einem Myriad-Cluster verteilt und skaliert linear, wenn neue Knoten hinzugefügt werden. Sein Redirect-on-Write-Charakter unterstützt danach automatisch Snapshots und Rollback, und da er ohne File-Locking arbeitet, umgeht er einen häufigen Konfliktpunkt in gemeinsam genutzten (NAS) Speichersystemen. Myriad ist laut Anbieter für "Early-Access"-Kunden bereits verfügbar und soll voraussichtlich noch im dritten Quartal dieses Jahres allgemein verfügbar sein.

7m
Jun 20, 2023
Qumulo File Daten Management: Eine technologische und wirtschaftliche Standortbestimmung

ZUM INHALT DIESER PODCAST-EPISODE: In großen Unternehmen werden sich die Kapazitäten im Bereich von unstrukturierten Daten - on-premise, im Edge- und in der Cloud - von 2023 bis 2026 verdreifachen (Quelle: Gartner). Storage File Systeme sind damit mehr denn je gefordert. Dies stellt Verantwortliche jeder Organisationsgröße vor ganz unterschiedliche Herausforderungen. In diesem Zusammenhang werden leistungsfähige Lösungen und Plattformen, die eine wachsende Anzahl von Geschäftsanwendungen und Daten unterstützen, immer wichtiger. Mit ein Grund, weshalb hybride Cloud-Datei-Implementierungen im Trend liegen. Handlungsbedarf besteht zudem im Bereich von Anschaffungs- Betriebs- und Verwaltungskosten, die es zu beherrschen und konsolidieren gilt. Als Lösung bieten sich moderne, software-definierte (SDS) Scale-out-Filesystem Softwarelösungen an, die zudem Schnittstellen zu Cloud-Ressourcen und Objektspeicher-Angeboten besitzen. SDS-Speicherplattformen - basierend auf Industrie-Standard-Hardware-Komponenten wie CPU, Flash etc. - kombiniert mit einer skalierbaren Speicher- und Datenverwaltung als SDS-Ansatz bieten verschiedene Vorteile. Aus Gründen von Verfügbarkeit, Redundanz und Leistung werden die Daten bei dieser Cluster-Architektur über mehrere Knoten verteilt (n+1/-2 oder mehr), inklusive hybriden Cloud-Workflow-Support und Public Cloud IaaS Betrieb. Wie die oben genannten Anforderungen mit dem aktuellen Lösungsportfolio des Storage Filesystem- und Filedatenmanagement-Spezialisten Qumulo adressiert werden können, darum geht es in dieser INTERAKTIVEN Podcast Episode mit Marc Frei und Jochen Kanta, beide Mitarbeiter der Firma Qumulo. Die Fragen stellt Norbert Deuschle vom Storage Consortium. Es werden folgende Themenbereiche angesprochen (Hörzeit ca. 27 min.): Grundsätzliche Anforderungen an moderne Dateisysteme-Lösungen. Auf welche spezifischen Leistungsmerkmale kommt es bei der Auswahl eines File Systems an? Granulare Snapshots, Quota Management, Data Movement, vereinfachte Integration in Netzwerke, Active Directories etc. Wie positioniert sich Qumulo und was bedeutet der Scale Anywhere™ Ansatz des Unternehmens? Welche Rolle spielt die Software Definierte Speicher- und Datenverwaltung im Zusammenhang mit Themen wie Infrastruktur-Modernisierung, Cloud Deployments, und Flash-Speicherentwicklung. File Systeme und Cloud Object Storage. Wie läßt sich das Zusammenspiel aus Anwendungssicht aktuell beschreiben? Kundenanforderungen, Herausforderungen etc. Cybersicherheit, Disaster Recovery, Backup. Wo liegen die Herausforderungen aus Sicht der Kunden von Qumulo und wie lassen sich Prozesse vereinfachen und beschleunigen? Anwendungsbeispiele aus dem Automotive- und Gesundheitswesen mit konkreten Kundenanforderungen. Wirtschaftliche (TCO / ROI) und technologische Aspekte. Zusammenfassung.

27m
May 16, 2023
NASUNI File Datenservices als Cloud-native SaaS-Software-Plattform

Zum Inhalt der Podcast-Episode: unstrukturierte Filedaten wachsen sowohl im Core als auch im Edge. Dazu kommt: technische Fortschritte als auch regulatorische Rahmenbedingen führen zu geänderten und dynamischen Anforderungen an den Daten-Lebenszyklus. Dazu gehört die Notwendigkeit, die Verfügbarkeit dieser Daten über längere Zeiträume zu gewährleisten und sie vor Verlusten, Katastrophen und Cyber-Angriffen in verteilten Umgebungen zu schützen. IT-Verantwortliche stehen gerade hier unter zunehmenden Druck, vorhandene Datei-Infrastrukturen skalierbar zu erweitern, zu vereinfachen aber auch mit vertretbaren Kosten zu modernisieren. Hierbei spielen Aspekte wie Home Office, RZ-Konsolidierung nebst Vereinfachung, Datenmigrationen, Backups, Replikations-Verfahren für Disaster-Recovery-Zwecke sowie aktuell verstärkte Umweltauflagen und Compliance-Initiativen eine Rolle. Bei großen Mengen an unstrukturierten Filedaten kommen klassische Hardware-zentrierte NAS-Speicherumgebungen dann schnell an ihre Grenzen und moderne leistungsgerechte Lösungsansätze sind gefordert. S3 Object Storage ist technologisch - wie bereits mehrfach thematisiert - zwar ein wichtiger Teil dieser „neuen“ Speicher-Infrastruktur, aber es braucht noch mehr. Wichtig sind leistungsfähige Dateisysteme, die eine sichere, kosteneffiziente und transparente Datenspeicherung – je nach Anforderungen vor-Ort und in der Cloud - ermöglichen. Wie sich diese Anforderungen und Randbedingungen mit dem aktuellen Lösungsportfolio von NASUNI adressieren, darum geht es in dieser Podcast Episode mit Herrn Markus Warg, Nasuni Field Technical Director, EMEA (1). Die Fragen stellt Norbert Deuschle vom Storage Consortium. Es werden u.a. folgende Aspekte angesprochen: Einleitung: Drängende Herausforderungen aus Sicht von NASUNI mit ausgewählten Beispielen. Unstrukturierte File-Daten, Objektdatenspeicher, S3 und die Cloud: Migration lokaler Fileserver-Ressourcen, NAS-, Backup- und DR-Infrastrukturen mit Hilfe von Nasuni Software und Public Cloud Anbietern wie Azure, Google oder AWS. Weshalb Organisationen diesen Weg gehen sollten. Cybersicherheit als eine Priorität: Ransomware-Angriffe nehmen zu. Business Case und Budgets für Infrastrukturinvestitionen in den Bereichen Datenschutz und Speicher-/Datenverwaltung über File-Backup- und Notfallplanung (Disaster Recovery). Welche Strategien sind für Nasuni in diesem Umfeld zielführend? Backup bringt bei einer großen Menge an unstrukturierten Filedaten aufgrund der Komplexität (Menge, Formate, Verteilung, Policies, usw.) eine Reihe von Besonderheiten mit sich, die Verantwortliche kennen sollten. Wo liegen die Herausforderungen und wie lassen sich diese Prozesse möglichst vereinfachen und beschleunigen? Reduzierung der Gesamtkosten zur Beschaffung und Verwaltung von Dateispeicher-Umgebungen (TCO) bei gleichzeitiger Erhöhung des Return-on-Invest (ROI) zur Erzeugung eines höheren Geschäftswerts aus den IT-Investitionen. Erweiterte Dateizugriffe im Hinblick auf die geschäftliche Vorteile und nicht nur auf die IT. Stichwort: Information als ein Unternehmenswert. Zusammenfassung: Die optimierte Strategie im Bereich von Filedaten-Speicherung und Verwaltung kann Unternehmen helfen die zunehmende Lücke zwischen Datenwachstum, Komplexität und IT-Infrastrukturkosten zu schließen. Das Nasuni Datenservice-Modell als Cloud-native SaaS-Software-Plattform transformiert traditionelle NAS Datei-Infrastrukturen mit einer Reihe von spezifischen Filedaten-Services und der Möglichkeit, dazu einen oder bei Bedarf mehrere Cloud-Anbieter zu wählen. Die Filedaten werden im Rahmen der Lösung innerhalb eines skalierbaren Cloud-Objektspeichers konsolidiert, um von überall auf diese Dateien sicher zugreifen zu können.

25m
Apr 25, 2023
Low Latency Storage und Hot Data; Anforderungen & Entwicklungstrends

Datenanalysen und neue KI-basierte Applikationen erfordern leistungsfähige IT-Infrastrukturen, aber keine Silos; ein Expertengespräch. Um was geht es in dieser Podcast-Episode? Storage-Technologien sind kein Selbstzweck und werden verstärkt über aktuelle Entwicklungen auf der Anwendungsseite beeinflusst. Beispiel: die Verschmelzung von Data Lake- und Data Warehouse-Architekturen, um als eine zentral aggregierte Ressource für alle strukturierten, semi- und unstrukturierten Daten eines Unternehmens zu agieren. Die Gesprächspartner dieser Podcast-Episode sind Dirk Hannemann, HPE Principal Solution Architect und Christian Hansmann, Solution Sales Architect bei der Firma Cancom (die Fragen stellt Norbert Deuschle vom Storage Consortium). Unternehmensrelevante Daten in immer größeren Mengen erzeugt. Zudem fordert der Einsatz von Big Data Analysen, ML und KI auf Grund von Digitalisierung die existierende Speicher- und IT-Infrastruktur von Core-to-Edge heraus. Verstärkt ist die Speicher- und Datenverwaltungsseite gefordert, kosteneffiziente und leistungsfähige Lösungen für Daten und Anwendungen (User) bereitzustellen. In den letzten beiden Podcast-Episoden sind wir darauf eingegangen, welche Herausforderungen und Lösungsansätze aus Speicher- und Datenmanagement-Sicht mit dem Fokus auf sogenannte kalte und warme Daten bestehen. Real-time Datenanalysen und neue teils KI-basierte Applikationen, erfordern Performance-seitig eine hohe und skalierbare Verarbeitungsgeschwindigkeit. Dies betrifft aber nicht nur den Storage mit I/O-Protokollen, sondern den gesamten IT-Infrastruktur-Stack, um Silos und Engpässe möglichst gar nicht erst entstehen zu lassen. Diese Podcast-Episode beschäftigt sich primär mit dem Thema Low-latency storage und „Hot- oder Fast Data“. Zudem werfen wir einen Blick auf Entwicklungstrends im Bereich von Multiprotokoll Storage, der Bedeutung von NVMoF im Zusammenhang mit Software Definierten Architekturen und Flash sowie einem gezielten Einsatz von hybriden Cloud Deployments. Angesprochen werden zudem einige damit verbundene Entwicklungstrends für die nächsten Jahre.

25m
Mar 28, 2023
Strategien gegen Cyberangriffe auf kritische Backupdaten

Zum Inhalt der Podcast-Episode: Backup-Umgebungen werden immer mehr zum Ziel von Angriffen. Sichere Offline-Datenkopien können im Fall der Fälle den Unterschied machen. Der konsequente Einsatz moderner Hardware- und Software-Sicherungssysteme, kombiniert mit dem Ansatz, wichtige Kopien von kritischen Daten verschlüsselt offline zu halten, kann sicher vor Ransomware & Co. schützen. Ein "Air-Gapped"-System darf dazu nicht physisch mit einem externen Netzwerk verbunden sein. Ransomware-Schutz bedeutet anders ausgedrückt auch zu verhindern, dass kritische Daten vor dem Ablauf ihres Lifecyles kompromittiert werden. Moderne Verfahren sichern dazu virtuelle Maschinen über S3 direkt auf einen Objektspeicher on-premise oder in der Cloud. Weitere Stichworte: unveränderliche Speicherung, immutable storage über einen mehrstufigen Schutz mit S3 Object Lock. Eine sichere Lösung sollte Teil einer umfassenderen Architektur sein, die auch eine Offline-Kopie von Backup-Daten auf Medien wie Tape als externen Datenträger erforderlich macht. Nur offline (nicht am Netzwerk) gehaltene Daten bieten einen vollständigen Schutz vor Ransomware und böswilligen Fernzugriffen. Backup-Anbieter verweisen in diesem Zusammenhang auf die favorisierte 3-2-1-1-(0) Regel, d.h. 3 verschiedene Datenkopien auf 2 verschieden Medien; auf einem Off-site medium; dazu ein offline medium (air-gapped, verschlüsselt); und 0-Fehler nach verifiziertem Backup-Recovery-Prozess (der letzte Punkt "0-Fehler" geht auf eine Empfehlung des Softwareanbieters Veeam zurück). Kritische Anwendungsdaten über S3 direkt auf einen Objektspeicher (HDD, Flash) zu sichern, ist auch eine sinnvolle Lösung, um die Lücke zwischen Datenwachstum und Infrastrukturbudgets zu schließen. Im nächsten Schritt ist es deshalb bei immer mehr kalten (inaktiven) Massendaten praktikabel, unter Einbeziehung von automatisierten Tape- Ressourcen eine logisch konsolidierte Datenverwaltung aufzubauen... Mehr dazu auch unter www.storageconsortium.de

8m
Feb 24, 2023
Kalte Daten im Unternehmen weniger klimaschädlich speichern und Kosten senken

Podcastfolge zur Verwaltung und Speicherung von kalten Daten im Unternehmen. Unstrukturierte Massendaten mit Tape, File- und Object Storage effizient verwalten. Zum Inhalt dieser Episode: Folgt man Untersuchungen wie dem aktuellen IDC Global DataSphere Report, soll sich das unternehmensbezogene Datenaufkommen in den nächsten 5 Jahren verdoppeln. Wir sprechen beim Unternehmenseinsatz hier von 80% und mehr an unstrukturierten- sowie semistrukturierten Daten. Davon wird in der Praxis aktuell übrigens nur ein kleiner einstelliger Prozentsatz für Analysezwecke verwendet- wo doch eigentlich der Wert der Daten als strategisches Asset für die digitale Transformation im Mittelpunkt stehen sollte. Es besteht also dringend Handlungsbedarf, denn die Analysen von historischen und anderen Daten, auf die nur selten zugegriffen wird können helfen, wettbewerbsfähiger zu bleiben. Technologien wie Apache Hadoop ermöglichen die kosteneffiziente Durchführung von Big-Data-Analysen auf Basis von Open-Source-Technologien und die dazu geeignete Speichertechnologie entscheidet auch über den Projekterfolg. Nur ist es für viele gerade kleinere und mittlere Unternehmen aufgrund von Budgetbeschränkungen und fehlenden Fachkräften schwierig, diese Ziele mit rein internen Plattformen vor-Ort im eigenen Datacenter zu erreichen. Public Cloud-Speicher andererseits bringen andere Herausforderungen in Bezug auf die Datenhoheit und -kontrolle mit sich. Auch die Zugriffs- und Speichergebühren, die beim Zugriff auf kalte Daten teuer werden können sind nicht zu unterschätzende Faktoren. In dieser Episode erfahren Sie, weshalb kalte Daten aus Umwelt- und Kostengründen ein Thema sind. Es wird auch darauf eingegangen, wie diese energieeffizient gespeichert und verwaltet werden können. Weitergehende Informationen zum Thema mit Verweisen zu IT-Technologien und Anbieterlösungen finden Sie auf unserer Webseite.

7m
Jan 26, 2023
Speichersystem-Auswahlkriterien für primäre Unternehmens-Workloads

Zum Hintergrund: IT-Verantwortliche benötigen Transparenz, bevor sie in mehr Speicherplatz investieren, auch müssen sie steigende Kosten vermeiden. Untersuchungen zufolge geben Unternehmen derzeit bereits mehr als 30 % ihres IT-Budgets für die Speicherung und Verwaltung von Daten aus. Dies bedeutet aber auch, dass es für Service Provider (CSPs/MSPs) und interne Rechenzentren-/Dienstleister noch diverse Spielräume zur Optimierung gibt, über die richtigen Speicherangebote bei der Senkung der Storage- und damit IT-Infrastrukturkosten mitzuwirken. Zumal sich durch Software-gesteuerte Architekturen die Möglichkeit bietet, Daten nicht mehr in abgeschlossenen Silos bzw. abhängig von der Infrastruktur in der sie gespeichert sind, sondern auch unabhängig von den zugehörigen Anwendungen zu verwalten. Zum Inhalt dieser Podcast-Episode: Der hybride Cloud-Betrieb mit Hilfe integrierter Datendienste wird verstärkt durch softwaredefinierte Infrastruktur- und Asset-Verbrauchsmodelle bestimmt werden. Bei Auswahl eines Speicheranbieters im Primärspeicher-Umfeld sollte in diesem Zusammenhang deshalb auf folgende Leistungsmerkmale geachtet werden...

6m
Dec 19, 2022
Backup- und Ransomware-Schutz als Veeam Ready Lösung mit Quantum Storage

Mehrstufiger skalierbarer Ansatz - auch alternativ zur öffentlichen Cloud - zum Schutz vor Datenverlusten. Um Unternehmen die Sicherung und den Schutz vor Schwachstellen zu erleichtern, bietet die Zusammenarbeit beider Hersteller für Rechenzentren eine mehrstufige  End-to-End-Lösung für eine Vielzahl von Datenschutz-Anwendungsfällen wie für Ransomware-Schutz und Backup, da in modernen Rechenzentren ein einzelnes Sicherungskonzept meist nicht mehr ausreichend ist, um vor Verlusten verschiedenster Art zu schützen. Hier einige Leistungsmerkmale von Quantum Storage für Veeam: Auf Basis der Veeam Ready-Qualifizierung für Object- und Object with Immutability des S3-kompatiblen Object Storage-Systems Quantum ActiveScale kann Anbieterseitig sichergestellt werden, dass allen Kunden, unabhängig davon welche Lösung sie nutzen, eine integrierte Option für Daten- und Ransomware-Schutz zur Verfügung steht. Dies wird zudem durch Funktionen wie Active Fault für die Scalar®-Tape-Bibliotheken und der "Snapshot für DXi®-Backup-Appliances“ - Funktion unterstützt. Weitere Details dazu finden Sie auf unserer Webseite unter www.storageconsortium.de

6m
Nov 22, 2022
Objektdaten-Speicherung, NAS-Migrationen und globale File Services

Im Tec-Podcast für Sie nachgefragt: Das Storage Consortium im Expertengespräch mit HPE und CANCOM zu CTERA Global File Services, 'Warm Data' und Object Storage Gesprächspartner dieser Episode unter Einbeziehung von Lösungen der Anbieter Scality (Object Storage) und CTERA (File Services) sind Dirk Hannemann, HPE Principal Solution Architect und Christian Hansmann, Solution Sales Architect bei CANCOM. Die Fragen stellt Norbert Deuschle vom Storage Consortium. Um was geht es? Nachdem in einer der vorangegangenen Podcast-Episode geklärt wurde, ob und in wieweit die Objektdaten-Speicherung nur für große unstrukturierte Datenmengen sowie überwiegend inaktive (kalte) Daten geeignet ist, liegt der inhaltliche Fokus dieses Fachbeitrags bei der Speicherung-/Verwaltung von sog. 'warmen' Daten mit Hilfe globale File Services sowie cloud-native Objektspeicher-Technologien; dies aber im Zusammenhang mit NAS-Migrationen (File-Daten) und der Cloud. Im Detail werden neben kundenseitigen Anforderungen auch die Lösungen auf Basis Scality Ring bzw. Artesca (Objektspeicher) in Verbindung mit CTERA (Global File Services) vorgestellt. HIER EINIGE PUNKTE, DIE IN DIESER EPISODE DETAILLIERTER BEHANDELT WERDEN (HÖRZEIT 27:02 MIN): __ Gewährleistung von Sicherheit, Datensouveränität und Datenschutz (EU-DSGVO...) Steigendes Risiko von Cyber-/Ransomware-Angriffen Kosten für die Migration in die Cloud; Kosten für den Zugriff auf Daten in der Cloud ?? Bereitstellung einer sicheren kosteneffizienten Plattform für Unternehmens-Dateidienste, um NAS-Migrationen in die Cloud zu vereinfachen. Traditionelle Speicher- und Sicherungssysteme mit herkömmliche dateisystembasierte Anwendungen und Arbeitslasten durch ein Cloud-Dateisystem ergänzen bzw. ersetzen, das auf softwaredefinierten File Services über Objektspeicher basiert und ohne Einschränkungen mit Object Storage funktioniert. File services mit Hilfe von CTERA’s File Server Technologie. Globaler, optimierter Zugriff auf File-Daten Edge-to-core, der nativ objektbasiert ist. Vorteile gegenüber lokalen File-Diensten (klassischer Filer ohne global Namespace). Beispiele CTERA File Server Konsolidierung etc. Das globale Dateisystem ermöglicht die Speicherung einer "goldenen Kopie" aller Unternehmensdaten auf kostengünstigem und skalierbarem Cloud-Objektspeicher. Unternehmen erhalten eine unbegrenzte Dateikapazität am Edge, ohne dass zusätzlicher Speicherplatz für wachsende Datenmengen erforderlich ist. Workloads: Collaboration, PACS, Content, Video, Fotos, File-Storage etc. Geringere Speicherkosten: Edge-Caching sowie Deduplizierung und Komprimierung von Dateien vor der Speicherung tragen zur Senkung der Egress-Gebühren und des Objektspeichervolumens bei. Speicherkosten senken, indem alte Dateiserver durch kostengünstigen Objektspeicher ersetzt werden. Skalierbarkeit: Zwischenspeicherung und Speicherung von Hot-Files am Edge, während Cold-Files in den Cloud Object Storage ausgelagert werden. Anwendungen müssen nicht umgeschrieben werden... Benutzer arbeiten weiterhin mit einer hierarchischen Dateistruktur und Microsoft-kompatiblen NT ACL-Berechtigungen. Der Edge Filer speichert die Dateien für einen schnellen Benutzerzugriff lokal im Cache und synchronisiert die Dateien über mehrere Standorte hinweg, während der Großteil der Daten in einem kostengünstigen Objektspeicher vor Ort oder in der Cloud gespeichert wird. Georedundanz (kein B/R) Multi-Cloud-Datenreplikation stellt die Geschäftskontinuität sicher, wenn Unternehmen Daten und Anwendungen außerhalb des Unternehmens verlagern und ein neues externes Sicherungsziel benötigen. Einsatzvorteile mit MS 365 usw. __  

27m
Oct 12, 2022
Speicherinfrastrukturen für datenintensive KI-Anwendungsumgebungen

KI-Anwendungen mit zum Teil massiven Datensätzen verlangen nach skalierbar hoher Rechen- und Speicherleistung; dies zu vertretbaren Kosten. Klassischer SAN-/NAS-Speicher skaliert bei diesen Workload-Profilen in Bezug auf kritische Parameter wie I/O-Leistung, Latenzzeiten, lineare Erweiterbarkeit, OPEX und CAPEX nicht entsprechend. Gefordert sind moderne Speichertechnologien und Protokolle wie NVMe(oF) im Verbund mit QLC-NAND, DRAM-Caching, Storage Class Memory sowie massiv parallele Filesystem- und Speichersoftware-Lösungen; insbesondere bei steigenden Bandbreiten-Anforderungen mit zufälligen Zugriffsmustern von kleinen bis sehr großen Files. Weitere Details dazu finden Sie in dieser Podcast Episode...

7m
Sep 23, 2022
Mehrschichtige Backup-Architektur gegen Ransomware-Angriffe

Automatisiertes Data Recovery zum schnellen und sicheren Restore. Nach Ansicht der Spezialisten bei Quantum Corp. ist ein Drei-Schichten-Modell sinnvoll. Moderne Datensicherungs-Plattformen stellen automatisierte Data Recovery-Mechanismen bereit und ermöglichen einen schnellen Restore. Darüberhinaus ist es sinnvoll, die sog. '3-2-1-1' Regel anzuwenden. Jede Organisation sollte dazu drei Kopien ihrer wichtigen Daten besitzen, zwei davon auf verschiedenen Speichermedien, zusammen mit einer offsite-Kopie plus einer unveränderlichen off-line-Kopie an einem sicheren Ort / Medium (air-gapped / immutable). Mit einer entsprechend abgesicherten und geschützten Offsite-Datensicherungslösung haben Unternehmen dann die Möglichkeit, ihre Daten im Falle eines Angriffs sicher wiederherzustellen. Weitere Details finden Sie in diesem Beitrag...

7m
Aug 23, 2022
Objektdaten-Speicherung nur für große Datenmengen? Einsatzbereiche & Use Cases

Im Tech-Podcast nachgefragt: Expertengespräch mit HPE und Cancom am Beispiel von Scality ARTESCA, container-basierte „fast Object“ Storage Software Lösung ZUM HINTERGRUND: Unternehmenswichtige Daten werden - von Core-to-Edge - in immer größeren Mengen erzeugt. Das betrifft Enterprise Anwendungen in Rechenzentren und in der Cloud / SaaS, Industrial Internet of Things mit Sensoren an Außenstellen, Video-Überwachung, Maschinendaten usw. Zusätzlich fordert der beschleunigte Einsatz von ML- und künstlicher Intelligenz auf Grund von Digitalisierungs-Initiativen die Speicher- und IT-Infrastruktur heraus. Stichworte: Datenmobilität, Agilität, Sicherheit, skalierbare Leistung, Kosten. ZUM PODCAST-INHALT (Hörzeit: 28:21 min.) Die Gesprächspartner dieser Folge sind Dirk Hannemann, HPE Principal Solution Architect und Christian Hansmann, Solution Sales Architect bei Cancom SE. Die Fragen stellt Norbert Deuschle (Storage Consortium): __ Wo liegen für ihre Kunden derzeit die größten Herausforderungen im Bereich der Daten- und Speicherverwaltung ? ARTESCA ist ein verteiltes Objektspeichersystem, das mit Cloud-nativen Methoden als Set von containerisierten Mikroservices auf Basis einer Scale-out-Architektur aufgebaut ist. Warum soll ich mich als mittelständisches Unternehmen mit vielleicht nur 50 oder 100 TB überhaupt mit dieser Art von Lösungen beschäftigen? Mit Einsatzbeispielen (Use Cases) Kosteneffizienz, Performance und Hochverfügbarkeit sind im Bereich der Datenspeicherung wichtige Randbedingungen. Wie positioniert sich eine moderne Objekt Storage Lösung in diesem Umfeld? Hohe Datenverfügbarkeit und Sicherheit ist für Anwenderunternehmen überlebensnotwendig. Daneben spielen datenschutz-rechtliche Aspekte (Compliance, wer hat die Hoheit über die Daten), Schutz von Ransomware & Co sowie Backup- und Disaster Recovery Verfahren eine zentrale Rolle. Wie spielt das mit Object Storage zusammen und wo liegen betriebsseitig derzeit die größten Herausforderungen? Für welche Datenspeicherungs-Anforderungen ist ARTESCA primär konzipiert und was unterscheidet die Software von Scality RING, dem klassischen Objektspeicherangebot des Unternehmens? Das S3-Protokoll  und Cloud-native gewinnen an Beliebtheit (Stichworte: Agilität, DevOps, Kubernetes & Co.). Allerdings besteht Kundenseitig der Bedarf, auch weiterhin bewährte File-Protokolle- und Daten einzusetzen-/zu verwalten. Wie lassen sich im Rahmen dieser Lösung beide Aspekte sinnvoll kombinieren? __ Weitere Information unter www.storageconsortium.de

28m
May 25, 2022
Tape-basierter S3 Object Storage mit PoINT Archival Gateway

Das Storage Consortium (N.Deuschle) spricht in dieser Podcast-Episode mit Herrn Thomas Thalmann, Geschäftsführer der Firma PoINT Software & Systems GmbH in Siegen zu den Technologien, Vorteilen und konkreten Anwendungsfällen einer S3-basierten Objektspeicher-Softwarelösung in Kombination mit Tape Storage. Im Einzelnen werden in dem Gespräch folgende Punkte adressiert und ausführlicher behandelt: __ Unstrukturierte Daten, Objektdatenspeicherung, S3, die Cloud und Bandsysteme... Wie sind die akuellen Entwicklungen in der Praxis zu bewerten und wo liegen die wesentlichen Gründe für das beschleunigte Datenwachstum auf der Seite Ihrer Kunden? Wo liegen die Vorteile bei der Verbindung einer Objekt-basierten Datenspeicherung mit Tape-Medien? Welcher Nutzen ergibt sich daraus gegenüber der verbreiteten Datei-basierten Speicherung? Warum die Archivdaten nicht einfach in der Cloud ablegen? Native S3-Schnittstelle und Bandspeicher: Sowohl zur Archivierung als auch für Objekt Storage verwendet man zum Zugriff (RESTful-)APIs. Das Verfahren arbeitet zustandslos über eine einheitliche Schnittstelle. Was sind die wesentliche Gründe, die für den Einsatz von APIs auf Basis der S3 Schnittstelle sprechen? Welche Voraussetzungen sollten geschaffen werden, um Tape-Technologien in Form von Bandbiblotheken sinnvoll in vorhandene Speicher-Infrastrukturen einzubinden? Welche bevorzugten Anwendungsfälle und Einsatzvorteile bietet die Tape-basierter S3 Object Storagelösung 'PoINT Archival Gateway’. __ Weitere Informationen zum Thema finden Sie auf der Webseite des Storage Consortium unter www.storageconsortium.de

18m
Apr 21, 2022
Moderne Speicherverwaltung mit Objektspeicher unter Verwendung einer neuen Storage-Klasse

Speicherverwaltungs-Technologien, um die zunehmende Lücke zwischen Datenwachstum und Infrastrukturbudget zu schließen. "Flash - Disk - Tape - Cloud - Object - Cold Storage" - Wie passt das alles zusammen? Norbert Deuschle vom Storage Consortium im Gespräch mit Ines Wolf - Managerin Pre-Sales CE der Firma Quantum. Ein technischer Podcast mit Details zum Quantum Active Scale Cold Storage - Speicherlösungsangebot. Im einzelnen werden folgende Punkte angesprochen und detaillierter behandelt: __ Was sind gerade die größten Herausforderungen bei der Speicherung, dem Zugriff und der Verwaltung im Zusammenhang mit einer langfristigen Aufbewahrung von Massendaten? Was bedeutet Cold Storage? Welche Zugriffsmöglichkeiten ergeben sich auf Basis welcher Technologien? Wie kann eine moderne Speicherverwaltung unter Einbeziehung von Storageklassen dabei helfen, kalte Daten bei Bedarf wieder "zum Leben" zu erwecken? Disk (HDD), Tape und die Cloud (S3) ? Wie passen die Technologien zusammen. Welche Anforderungen ergeben sich im Gegensatz zu HDDs beim Schreiben auf Band (Mengen, Kosten, Verwaltung usw.) Wie lassen sich die daran beteiligten verschiedenen Speichertechnologien möglichst einheitlich verwalten? Welche Rolle spielt Object Storage im Rahmen der Quantum Active Scale Cold Storage - Technologie? Was unterscheidet diese von anderen Lösungsansätzen? Intelligentes Data Staging, Tape Mgmt., 2D Erasure Coding, 3 GEO DDP usw. und weitere Optionen. Warum bestimmte Kunden Cold Storage und Objektspeicher lieber on-premise implementieren? Vorteile gegenüber der Public Cloud. Wie lässt sich die Verbindung zu Cloud Deployments (S3 / Glacier / API-Ansatz) realisieren. Wie kann Tape in Zusammenhang mit S3, Cloud und Objektspeicher genutzt werden? Möglichkeiten, die Lösung als ‚Storage as a Service’ zu beziehen (pay-as-you-use ), ähnlich wie bei Public-Cloud - Angeboten. __

1s
Mar 24, 2022
Storage für künstliche Intelligenz (KI): Was kennzeichnet geeignete Speichertechnologien?

QLC-Flash, Storage Class Memory (SCM), Filesystem-Software und hochparallele Speicher-I/O-Architekturen für KI-Infrastrukturen. Zum Inhalt des Podcast: Moderne Speichertechnologien leisten in Bezug auf ihre Leistung, Skalierbarkeit und Kapazität viel mehr als noch vor drei bis fünf Jahren, was sich wiederum auf alle wesentlichen Aspekte von KI-Projekten wie Datenpflege und -Management bis hin zum Datenbanken-Design positiv auswirken kann. Ein Beispiel: Bei Deep Learning (DL) Projekten bedeutet ein langsamer Speicher immer eine langsamere maschinelle Lernleistung, denn das Deep Neural Network stellt ein Abbild eines massiv parallelen vernetzten Modells dar, bei dem bis zu Milliarden von Neuronen lose miteinander verbunden werden, um ein einziges Problem zu lösen. GPUs wiederum sind massiv parallele Prozessoren, bei denen jeder einzelne aus Tausenden von lose gekoppelten Rechenkernen besteht, um 100x höhere Leistungswerte und mehr als eine Standard CPU zu erzielen...

1s
Feb 15, 2022
Kontinuierlicher Datenschutz (CDP) zur Erweiterung von Backup-Restore-Verfahren

Eine Übersicht zu Leistungsmerkmalen, Einsatzbedingungen und Positionierung von Continuous Data Protection (CDP) im Zusammenhang mit Backup-/Restore und Disaster Recovery (D/R). Um was geht es in diesem Blogpost? Kontinuierlicher Datenschutz- oder auch Datensicherung (Continuous Data Protection, CDP) speichert automatisch alle Änderungen an Daten. Falls eine Modifikation erfolgt, werden je nach Implementierung kontinuierlich oder annähernd in real-time Kopien erzeugt. Im Vergleich dazu laufen Backup-Jobs mit Hilfe von Snapshots ein- oder mehrmals zu bestimmten Zeiten (periodisch). CDP ist im gewissen Sinn eine Backup-Weiterführung, allerdings mit Vorteilen in Bezug auf den Datenschutz, der Geschwindigkeit beim Restore, Migration, Datenverfügbarkeit und Disaster Recovery-Möglichkeiten; zudem besteht die Option, D/R-Tests on-premise und-/oder in Verbindung mit der Cloud einfacher und damit auch häufiger umzusetzen. In diesem Podcast werden im wesentlichen folgenden Themen behandelt: Warum überhaupt CDP und was unterscheidet kontinuierliche Datensicherung von Standard-Backup-Verfahren? Wie arbeitet CDP? Welche Einschränkungen gilt es bei CDP zu beachten?Wo liegen die Herausforderungen bei Backup-Verfahren ohne CDP-Funktionen?

8m
Dec 09, 2021
Kosten, Komplexität und Risiken der Cloud reduzieren - Ein Experten-Podcast mit NetApp und Cancom

Herausforderung „Hybride Cloud-Infrastruktur“; wo besteht Handlungsbedarf? Ein Gespräch zu Lösungen und Trends Zum Podcast-Inhalt: Der Trend zu Software-Definierten- und hybriden Cloud Infrastrukturen ist einerseits nicht von der Hand zu weisen, wirft aber Fragen auf: Welche Datenmanagement- und Cloud-Strategie ist für mein Unternehmen geeignet, was sind die zentralen Herausforderungen die es zu beachten gilt (Sicherheit, Kosten, Komplexität) und wie positioniert sich ein bislang eher traditionell an on-premise-Speicherlösungen orientierter Anbieter wie NetApp in diesem dynamischen Marktumfeld? Und welche Schwerpunkte im Lösungs-/Projektgeschäft sind dabei für ein IT-Dienstleistungsunternehmen im Bereich der Digitalen Transformation wie Cancom zentral? Diese und weitere Fragen werden (Hörzeit: ca. 26 Min.) im Rahmen einer Q & A in diesem Podcast genauer besprochen. Dazu stehen Ihnen mit Axel Frentzen, NetApp Senior Technical Partner Manager und Daniel Harenkamp, Solution Architect bei Cancom, zwei erfahrene Experten für die Bereiche Backup, Hochverfügbarkeit, Clouddaten- und Speichermanagement zur Verfügung; die Fragen stellt Norbert Deuschle vom Storage Consortium. Im Einzelnen werden im Podcast folgende Themenbereiche behandelt (Auszug): Was sind für ihre Kunden derzeit die größten Herausforderungen im Bereich der Datenverwaltung? Im Zuge der „Cloudifizierung“ stellen Unternehmenskunden Flexibilität, Sicherheit, Vereinfachung und Kostenreduzierung in den Mittelpunkt ihrer strategischen Initiativen zur Daten- und Speicherverwaltung. Was sind die spezifischen NetApp-Mehrwerte in der Cloud? Cloudifizierung und die Herausforderungen im Hinblick auf Komplexität, Datenschutz (Sicherheit) und das Einhalten von Compliance-Richtlinien Sicherheit / Cyberprotection / Ransomware und Backup-Restore. Wo sieht ein Dienstleister wie CANCOM aus Projektsicht hier aktuellen Handlungsbedarf? Die Cloud ist nicht nur ein Storage-Thema, sondern betrifft die Compute- und IT-Infrastrukturseite generell. Im Zusammenhang mit der Digitalisierung werden Anwendungsseitig technologische Entwicklungen wie z.B. API-gesteuerte Lösungen auf Basis von Microservices sowie Container wichtiger (cloud-native-Ansätze). Wie adressieren NetApp und Cancom Lösungsseitig diese Entwicklungstrends? Was sollten Kunden tun, um den für sie jeweils möglichst kosteneffizientesten Weg in die Cloud zu finden? Ist „lift & shift“ eine Lösung? Wie lassen sich die Infrastrukturkosten in der Cloud bestimmen / was kostet mich die Cloud? Welche Kostenoptimierungs-Potentiale lassen sich nutzen? Welche Daten speichert man wo (Handling, Sicherheit, Kosten)? Space Efficency Features wie Deduplication und Compression Data Tiering in günstigeren kalten Speicher (S3 / Blob) Zentrale Datenhaltung – dezentral nur Caching (z.B. GFC) Sicherheit durch Ransomwareschutz via Snapshots, Replikation der Snapshots, Fpolicy / VSCAN etc. Neues S3-Protokoll in ONTAP Storage Anbindung für Kubernetes Platformen (Trident) Applikationskonsistenter Backup Service für Kubernetes-Apps (Astra Control) Firmenübernahmen wie DataSense, Talon, Cloudjumper... FinOps und Security via NetApp Spot, Cloudcheckr usw...

26m
Oct 14, 2021
Persistenter Speicher und Cloud-native IT-Infrastrukturen

Gerade weil sich moderne Applikations-Arbeitslasten stärker in Richtung Container verschieben, steht der Storage weiterhin im Mittelpunkt. Teil 1: Als Container-Technologien wie Docker zu umfangreichen Orchestrierungslösungen mit Kubernetes führten, lag der Fokus nicht primär auf der Bereitstellung von persistenten „Enterprise-Class-Storage" Funktionalitäten. Für Anwender führt dies immer wieder zu Schwierigkeiten im Zusammenhang mit der Storage-Bereitstellung, zumal Kubernetes selbst generell nicht gerade einfach zu verwalten ist. Klassischer Enterprise Storage rechnet nicht mit kurzlebigen, sprunghaften Dev-Ops-Workloads. Auch Container Storage Interface (CSI) Implementierungen lösen das Problem nicht vollständig, denn mit der Erstellung und dem ‚Ableben’ von Containern werden auch die Verbindungen zu den Speicher-Volumes verändert. Diese Prozesse belasten wiederum den Unternehmensspeicher, vor allem bei komplexen schnellwachsenden und dynamischen Umgebungen. Wichtige Themen wie Datensicherheit, Replikation, Thin Provisioning, Hochverfügbarkeit, Backup-Restore und weitere speicherbezogene Funktionen können damit zu einer echten Herausforderung werden... Im nächsten Podcast zu diesem Thema (Teil 2) soll dann näher auf den Bereich Cloud-native Speicherarchitekturen oder 'von SAN über HCI zu CAS (container attached storage)' eingegangen werden.

4m
Sep 29, 2021
Unternehmensweite Datensicherungs- und Disaster-Recovery Strategien gegen Cyberangriffe, Teil 2

Diskussionsrunde (Teil 2) mit Experten der Firmen Cancom SE und Quantum. Ratschläge und Entwicklungstrends im Bereich von Datensicherung-/Restore, Disaster Recovery und Schutz der IT-Infrastruktur. Die Fragen stellt Norbert Deuschle (Storage Consortium). Zum Inhalt: Cyber-Angriffe sind für Betroffene mit teils massiven wirtschaftlichen Schäden und betrieblichen Beeinträchtigungen verbunden. Immer noch spielt dabei die Corona-Pandemie weltweit Cyberkriminellen in die Hände, während Unternehmens-Backups selbst verstärkt zu einem Angriffsziel werden. Wie lassen sich Angriffe auf die eigene IT-Infrastruktur pro-aktiv vermeiden und welche Strategien & Lösungen gibt es für effektive Gegenmaßnahmen? DIESER ZWEITE TEIL UNSERER PODCAST-EPISODE (17:03 min.) befasst sich ausführlich mit den folgenden Punkten und Empfehlungen: 1. Daten müssen unveränderbar sein 2. Unproduktive Daten aus dem Backup ausschließen – Stichwort: Datenklassifizierung 3. Transparenz – Sauberes Monitoring auch für Backups - Stichwort: Änderungsrate 4. Einsatz von KI und maschinellem Lernen im Backup Prozess - Stichwort Software 5. Fokus auf kurze Wiederherstellungszeiten (restore) Im technischen Bereich werden u.a. folgende Optionen diskutiert: __ Backup to (2) Disk - Fast Backup 2 Disk – Archiv Backup 2 Tape – Log Term Backup 2 Cloud – Long Term Tape/ Disk/ Object Storage: Wann kommt welche Technologie zum Einsatz? Worauf ist bei der Auswahl entsprechender Management-SW-Lösungen zu achten? Backup to Disk, Secure Snapshot Was bedeutet Daten-Unveränderbarkeit im Bereich Backup? __ Weitere Punkte die besprochen werden, umfassen: __ Welche Technologien sind unverzichtbar, um gegen Angriffe möglichst pro-aktiv gewappnet zu sein? Die Cloud als Erweiterung bestehender Datenverwaltungs- und Speicherplattformen. Was bedeutet das für den Datenschutz und  Sicherheitsmaßnahmen wie Backup-/Restore, um über das eigene Netzwerk hinaus die Datensicherheit gewährleisten zu können? Eine Absicherung gegen Cyberangriffe kann je nach Infrastruktur sehr komplex sein, eine effektive Strategie besteht in der Regel aus mehreren Ebenen, Prozessen und Lösungen. Welche Technologien sind unverzichtbar, um gegen Angriffe möglichst pro-aktiv gewappnet zu sein? Edge Computing, IoT, Digitalisierung etc. vergrößern die Angriffsflächen für Cyberattacken und schaffen neue Herausforderungen beim Schutz von Daten. Welche Bedeutung kommt der Sicherung von Netzwerken und den einzelnen Datenendpunkten zu und wo liegen derzeit die größten Herausforderungen? __ Ein Fazit: Wie sind die aktuellen Bedrohungsszenarien einzuschätzen? Werden potentielle Angriffe künftig noch weiter zunehmen und falls ja, in welchen Bereichen?

17m
Aug 04, 2021
Unternehmensweite Datensicherungs-Strategien gegen Cyberangriffe und Ransomware, Teil 1

Herzlich Willkommen zu dieser neuen Podcast- Episode des Storage Consortium. INHALT: CYBERATTACKEN UND RANSOMWARE-BEDROHUNGEN sind für Betroffene mit Teils massiven wirtschaftlichen Schäden und betrieblichen Beeinträchtigungen verbunden. Immer noch spielt die andauernde Corona-Pandemie dabei weltweit Cyberkriminellen in die Hände und Unternehmens-Backups werden inzwischen selbst zu einem attraktiven Angriffsziel. Deshalb ist es wichtig, sich damit aktiv auseinander zusetzen, insbesondere zu Fragen, wie sich Angriffe auf die eigene IT-Infrastruktur pro-aktiv vermeiden lassen und welche (Sicherungs- und Disaster-Recovery) Strategien& Lösungen als Gegenmaßnahmen sich in der Praxis bewährt haben. In diesem ersten Teil gehen wir insbesondere darauf ein, ob es heute überhaupt noch ausreichend ist, sich im IT-Betrieb auf eine bislang bewährte Datensicherungsumgebung- nebst Technologien und Prozessen zu verlassen? Weitere Punkte die besprochen werden, sind: __ Wie lässt sich eine moderne und gut durchdachte Sicherungsstrategie beschreiben? Welche zentralen Elemente beinhaltet ein solcher Ansatz? ____ Backups sind zu einem akttraktiven Angriffsziel bei Ransomware & Co. geworden. Was sind essentielle Sicherungsmaßnahmen zum Schutz der Backup-Infrastruktur? __ DAS EXPERTEN-PANEL FÜR DIESEN PODCAST (15:50 MIN.): __ Herr Bjoern Hoeger, Manager Hybrid Data Center & Architecture - Firma Cancom, einem IT-Dienstleistungsunternehmen im Bereich der Digitalen Transformation Herr Bernhard Kölbl - Presales System Engineer - Firma Quantum, einem weltweit operierendem Hersteller  & Entwickler von Hardware- und Software-Lösungen im Bereich der unternehmensweiten Speicher- und Datenverwaltung. Moderation und Fragen: Norbert Deuschle, Storage Consortium __ Der zweite Teil dieser Podcast-Episode (geplant für Anfang August 2021) wird sich dann detaillierter mit folgenden Fragestellungen auseinandersetzen: __ Gibt es ‚best-pratices’, um eine Strategie zur Bekämpfung von Ransomware und Cyberübergriffen (inkl. Bitcoin-Mining) im Unternehmen zu etablieren oder ist jedes Unternehmen- bzw. Organisation individuell zu betrachten? Immer mehr Firmen nutzen die Cloud als Erweiterung ihrer bestehenden Datenverwaltungs- und Speicherplattform. Was bedeutet das für den Datenschutz und  Sicherheitsmaßnahmen wie Backup-/Restore, um über das eigene Netzwerk hinaus die Datensicherheit gewährleisten zu können. Eine Absicherung gegen Cyberangriffe kann je nach Infrastruktur sehr komplex sein, eine effektive Strategie besteht in der Regel aus mehreren Ebenen, Prozessen und Lösungen. Welche Technologien sind unverzichtbar, um gegen Angriffe möglichst pro-aktiv gewappnet zu sein? Tape/ Disk/ Object Storage: Wann kommt welche Technologie zum Einsatz? Worauf ist bei der Datensicherungs- und Management-Software zu achten? ____ ____ Zur Bedeutung von Datenklassifizierung im Zusammenhang mit der Auslagerung von Daten in Cloud (Achtung! Ransomware nicht mitsichern...) ____ Edge Computing, IoT und die Digitalisierung generell vergrößern die Angriffsfläche für Cyberattacken und schaffen neue Herausforderungen beim Schutz und der Sicherung von Daten. Welche Bedeutung kommt der Sicherung von Netzwerken und den einzelnen Datenendpunkten zu und wo liegen die größten Herausforderungen für die Betreiber? Wie sind die aktuellen Bedrohungsszenarien einzuschätzen? Werden potentielle Angriffe noch weiter zunehmen oder ist das letztlich Phänomen vorübergehend, über das man sich in einigen Jahren keine großen Gedanken mehr machen muss? __

15m
Jul 27, 2021
Software-Definierte Daten- und Speicherverwaltung mit Scality ARTESCA

* Im Tec-Podcast nachgefragt: Scality RING und ARTESCA; flexible Optionen zur anwendungsoptimierten, modernen Datenverwaltung. Zum Inhalt: Kritische Daten werden heute überall und in immer größerer Menge erzeugt – angefangen von traditionellen Enterprise-Anwendungen in Rechenzentren über neue SaaS Apps in der Cloud, Industrial Internet of Things Anwendungen und Sensoren – bis hin zu Edge Lokationen in Außenstellen mittels Video-Überwachung oder Maschinendaten-Sensoren. Aber natürlich trägt dazu auch der verstärkte Einsatz von ML und künstlicher Intelligenz im Rahmen der Digitalisierung massiv zu dieser Entwicklung bei. * Der 2009 in Paris gegründete und inzwischen weltweit agierende Datenmanagement-und Speicher-Softwareanbieter Scality hat es sich zur Aufgabe gemacht, dieses Datenwachstum hochskalierbar und leistungsfähig zu verwalten, zu speichern sowie auswertbar zu mache; dies schließt aktuelle Anforderungen, wie sie aus Cloud-nativen Anwendungsumgebungen (Stichwort: Kubernetes & Co.) resultieren, ein. * Im folgenden Gespräch mit Christoph Storzum - Regional Direktor DACH bei Scality - gehen wir in Bezug auf das aktuelle Lösungsangebot und die Strategie des Anbieters detailliert ein.

11m
Jun 01, 2021