APRIL 2023 ISSN 1864-0907
IT,diemitIhren Kundenwächst. www.tim-vad.com DieTIMAGistautorisierterDellTechnologiesDistributorfürDell APEXFlexOn-Demand-Lösungen.Dieseermöglichen,IT-Kosten andieGeschäftsanforderungendesEndkundenanzupassen. Wirunterstützen Systemhauspartnerbeider Einführungindas Pay-Per-Use-ModellfürDell Technologies Storage-Lösungen. Fle xO nD emand
Storage-Markt: Wachstumskurs mit Aussetzern
Die Storage-Branche ist derzeit nicht auf Rosen gebettet. Angesichts der wirtschaftlichen Unsicherheit durch den Krieg in der Ukraine haben die Hyperscaler ihre Bestellungen heruntergefahren und zehren von den Reserven in ihren Lagern. Auch andere Unternehmen schieben Projekte erst einmal auf, um Kosten zu senken.
Auf längere Sicht geht das Datenwachstum aber weiter, davon sind alle relevanten Marktforscher überzeugt. Denn nur durch eine fortschreitende Digitalisierung bleiben Firmen konkurrenzfähig und auch öffentliche Auftraggeber müssen ihre Abläufe modernisieren. Davon profitieren natürlich die Public-Cloud-Provider. Aber auch EdgeAnwendungen sowie die Private Cloud benötigen immer mehr Speicherplatz.
Das Kapazitätswachstum muss dabei nachhaltig erfolgen. Denn die Rechenzentren können nicht ins Unermessliche wachsen – das ist weder ökologisch noch wirtschaftlich vernünftig. Das haben viele Hersteller und Partner erkannt. Die Reaktion: Moderne Storage-Systeme kommen mit deutlich weniger Strom pro Terabyte aus. Und Nachhaltigkeit wird als Marktvorteil kommuniziert. Gleichzeitig wächst mit dem Aufschwung hybrider Infrastrukturen, neuen Cloud-nativen Anwendungen und der Bedrohung durch Cyberangriffe trotz aller Automatisierung die Komplexität im Storage-Umfeld. Damit werden Data Management und Managed Storage zu einem wichtigen Standbein für die Systemhäuser.
Ich wünsche Ihnen eine aufschlussreiche Lektüre!
Editorial / DATA STORAGE / 3
BILD:
Klaus Länger, Redakteur IT-BUSINESS
Klaus.Laenger@it-business.de
MILA103 - STOCK.ADOBE.COM
CHANNEL GUIDE
Data Storage
Storage: Größer und grüner Trotz wirtschaftlicher Probleme wächst der Bedarf nach Storage-Lösungen weiter. Allerdings muss dieses Wachstum mit nachhaltigeren und sparsameren Systemen erfolgen. Dazu haben die Hersteller ganz unterschiedliche Konzepte im Angebot. 6
Die Expertise von Systemhäusern ist gefragt Die Anforderungen an die Flexibilität und Sicherheit von Speicherinfrastrukturen steigen. 14
Hätte, hätte, Blockchainkette!
Wird dezentrale Speicherung auf der Blockchain die sichere Datenhaltung revolutionieren? 18
Der Data Act und IT-Dienstleister
Beim Data Act der EU geht es um viel mehr als nur um den Datenschutz. 24
und angekündigt.
EU Data Act 24
Was erhofft sich die EU vom Data Act und inwieweit sind IT-Systemhäuser und -Dienstleister betroffen?
Ideen für größere SSDs und HDDs 26
Mit neuen Technologien werden Kapazität und Performance von NANF-Flash und Festplatten gesteigert.
Steintafeln der Neuzeit 30
Langzeitarchivierung: Von den Sumerern sind noch Jahrtausende alte Gehaltsabrechnungen verfügbar.
Storage für KMU 32
Wo sind die Daten von kleinen und mittleren Unternehmen sicher? In der Cloud oder auf lokalen Speichern?
Impressum 34
4 / DATA STORAGE / Inhalt
Nachhaltiges Wachstum 6 Der Bedarf nach Storage wächst weiter rasant. Dabei sind nachhaltige Konzepte gefragt. Marktbarometer 12 Das Datenwachstum
auch
öfter Daten verloren gehen. Die Aufgaben für den Channel wachsen 14 Speicherinfrastrukturen werden komplexer. Umso mehr ist die Expertise von Dienstleistern gefragt. Storage-Systeme effektiv schützen 16 Disaster Recovery, Verschlüsselung, Object Lock oder WORM können lokal und hybrid eingesetzt werden. Speicherung auf der Blockchain 18 Wenn ein zentraler
schwerer. Storage und Umwelt Hand in Hand 20
ist nicht zu bremsen. Kein Wunder, dass
immer
Angriffspunkt fehlt, haben es Hacker erheblich
AWS steigert die Leistung 22
der Anwenderkonferenz von
wurden
Speicherdienste vorgestellt
Um die Klimaziele zu erreichen, erfordert es nachhaltige Konzepte jedes IT-Unternehmens.
Bei
AWS
neue
Data. Done. Right.
Die Menge an weltweit generierten Daten steigt kontinuierlich an. So wird laut IDC die Menge der Unternehmensdaten bis 2026 ein Volumen von 201 Zettabyte (oder 201 Milliarden Terabyte) erreichen. Um diese enorme Datenmenge effektiv zu verwalten ist der Einsatz von modernen Speicherlösungen mit hohen Kapazitäten essenziell. Hierfür brauchen Unternehmen innovative, sichere und hochpräzise Datenmanagementlösungen.
Dabei steht ihnen Seagate als ein weltweit führender Technologieanbieter und verlässlicher Partner mit mehr als 40 Jahren Erfahrung zur Seite. Das Unternehmen hat seitdem bereits mehr als drei Milliarden Terabyte an Datenkapazität ausgeliefert. Vertrauen, Bezahlbarkeit und eine hohe Kompatibilität für eine nahtlose End-to-End-Integration stehen dabei im Mittelpunkt.
Großartig in Wert und Service
Seagate bedient die Märkte für bestehende Speicherbranchen ebenso wie Massenspeicher und bietet zudem die erforderliche Massenspeicherinfrastruktur als Dienstleistung. Das Gesamtportfolio reicht von Laufwerken über Gehäuseplattformen und Controller-Module bis hin zu Controller Host Interfaces. So können Unternehmen ihre Daten mit der für sie passenden Lösung ebenso sicher und nutzerfreundlich wie kosteneffizient speichern und managen, und zwar ohne Vendor Lock-ins.
Verlässliche Speicherlösungen
Um einen nahtlosen Geschäftsbetrieb zu gewährleisten und auch langfristig einen Mehrwert aus den eigenen Daten zu generieren, ist eine zuverlässige Speicherlösung für Unternehmen unerlässlich. Als exklusive Datenschutztechnologie von Seagate bietet etwa ADAPT (Advanced Distributed Automatic Protection Technology) eine besondere Form der Datensicherheit. ADAPT ermöglicht eine schnelle und
Seagate Datenspeicherlösungen: seagate.com/systems
effiziente Wiederherstellung von Laufwerken, sodass praktisch keine Systemausfallzeiten mehr auftreten. Sie schützt vor doppelten Festplattenausfällen und stellt automatisch Ersatzlaufwerke bereit.
Die Lösung ist in den CORVAULT- und Exos X 4006-Produktlinien verfügbar. Mit Exos CORVAULT steht Unternehmen allerdings nicht nur eine besonders sichere, sondern auch hoch performante Lösung zur Verfügung, die sich durch
mehrere Petabyte Kapazität, Hochverfügbarkeit und Hyperscale-Effizienz auszeichnet. Die innovative ADR SelfHealing-Technologie von Seagate minimiert zudem als einzigartige autonome Laufwerkswiederherstellung die SystemServicekosten und TCO. Das sind nur einige Beispiele für das breite Produktportfolio von Seagate.
Vertrauenswürdiger Partner
Fest steht: Unternehmen, die dank effizienter Lösungen zur Bewältigung großer Datenmengen einen Mehrwert aus ihren Daten generieren, werden sich auch in Zukunft einen entscheidenden Wettbewerbsvorteil verschaffen können. Hierzu können Unternehmen wie Seagate als verlässlicher Partner an ihrer Seite einen entscheidenden Beitrag leisten.
ADVERTORIAL
Mit der fortschreitenden Digitalisierung wächst der zu speichernde Datenbestand rapide weiter.
Allerdings setzen Hersteller und Handel hier zunehmend auf nachhaltigere Storage-Lösungen, was auch notwendig ist.
Rechenzentren müssen nachhaltiger werden. Das gilt auch für Storage-Lösungen.
Mehr unter: https://voge.ly/vglfXKE/
Autor: Klaus Länger
6 / DATA STORAGE / Titelstory
NACHHALTIGKEIT TIVE 2022 23 B LDER :FLYALONE STOCKADOBECOM / M BERNHARDMANHARD
Wachstum der installierten Storage-Kapazität
Datenvolumen in Zettabytes
Auf 201 Zettabyte, also eine Million Petabyte, soll die Menge der weltweit generierten Daten bis 2026 steigen. Diese Zahl nennt der „Worldwide Global DataSphere and Global Storage Sphere Structured and Unstructured Data Forecast, 2022–2026” von IDC. Im Jahr 2010 lag dieser Wert noch bei etwa 10 Zettabyte (ZB). Zwar werden von dieser enormen Datenmenge im Jahr 2026 nur 20 ZB tatsächlich über einen längeren Zeitraum hinweg gespeichert und nicht gleich wieder verworfen oder überschrieben, aber auch das bedeutet eine Verdoppelung gegenüber 2022. Zwar gibt es momentan, bedingt durch die wirtschaftliche Unsicherheit ob des Krieges in der Ukraine eine Delle in der Nachfrage nach Storage-Geräten, aber der Trend geht trotzdem weiter nach oben.
Mehr Wachstum bedeutet aber auch einen steigenden Verbrauch von Ressourcen und vor allem Energie. Dass dies ein Problem ist, zeigt der gerade veröffentlichte Bericht des Weltklimarats, der drastische Schritte zur Eindämmung von Erderwärmung einfordert. Diese Nachricht ist auch bei den Anbietern von Storage-Lösungen angekommen. Deren Rezept für mehr Nachhaltigkeit liegt in einer Steigerung der Storage-Kapazität bei gleichzeitig weniger Raumbedarf und Energieverbrauch. Allerdings präsentieren hier die Hersteller höchst unterschiedliche Konzepte dafür, wie diese Ziele erreicht werden sollen.
2025
16,1 Zettabytes weltweites Datenvolumen
Unstrukturierte Daten bis 2030
Faktor10
Titelstory / DATA STORAGE / 7
QUELLE: IDC BILD: PIXARDI - STOCK.ADOBE.COM 0 2 4 6 8 10 12 14 16 18 2020202120232023
Auf All-Flash für eine höhere Effizienz setzten beispielsweise Pure Storage und Vast Data. Mit der Flashblade//E hat Pure Storage ein All-Flash-System für unstrukturierte Daten vorgestellt, das den in diesem Marktsegment dominierenden Systemen auf HDD-Basis Konkurrenz machen und dabei laut dem Hersteller nur 20 Prozent der Energie verbrauchen soll. In den kommenden Jahren wird die Menge an unstrukturierten Daten weiter sprunghaft wachsen, etwa um den Faktor 10 bis 2030. Um dieses Wachstum zu bewältigen, benötigen Unternehmen Storage-Systeme mit entsprechend hoher Kapazität, die aber bei der Performance keine Höchstleistungen vollbringen müssen. 20242025
ALL-FLASH FÜR UNSTRUKTURIERTE DATEN
Im Prinzip nutzt Pure Storage für das neue Flashblade//E eine ähnliche Technik wie für das Flashblade//S: In einem 5U-Gehäuse sitzen 10 Blades mit jeweils vier DirectStorage-Modulen mit 48 TB Kapazität. Allerdings kommt in einem Flashblade//E-System
All-Flash wird grün: Mit einem Watt pro TB Kapazität soll die Flashblade//E von Pure Storage auskommen.
nur ein Control Chassis mit EC-Blades zum Einsatz, das wie das in den S-Modellen, neben dem Storage einen Intel-basierten Controller enthält. Zu einem E-Modell gehört neben dem Control Chassis noch mindestens ein weiteres Expansion Chassis, das nur EX-Blades enthält, also reine Storage-Blades ohne Controller. Zudem gehören noch zwei externe Fabric-Module (XFM) für die Verbindung zwischen den Einheiten zu einem System.
Storage-Server, und Enclosures mit QLC-SSDs zu einem geringeren Compute-Overhead führen als bei herkömmlichen Scale-out-Systemen, was Energie spart. Zudem verspricht der Hersteller für seine Cluster eine Lebensdauer von 10 Jahren für Controller und Storage ohne die Notwendigkeit von Forklift-Upgrades, was die Entstehung von Elektroschrott minimieren soll und so Ressourcen spart. Ob das in der Praxis so möglich sein wird, bleibt allerdings abzuwarten. In einem eigenen Nachhaltigkeitsreport führt Vast Data für die eigene Universal-Storage-Lösung im Vergleich zu einem Hybrid-Flash-System von Dell eine um 79 Prozent geringere Leistungsaufnahme sowie einen um 65 Prozent verringerten Platzbedarf an. Allerdings ist das HDD-System bei dieser Rechnung mit 8-TB-HDDs bestückt und die Vast-DataLösung mit 15-TB-E1.L-SSDs in den neuen CeresFlash-Enclosures mit Nvidia BlueField DPUs.
Flashblade//E startet mit einer unkomprimierten Speicherkapazität von 40 PB, die in 20-PB-Schritten erweitert werden kann. Erstmals nennt der Hersteller dabei einen ungefähren Preis für die Systeme: Er liegt bei 20 US-Cent pro GB Rohkapazität. Dabei soll ein System mit etwa einem Watt pro TB Speicherplatz, und bei gleicher Kapazität mit nur 20 Prozent des Platzbedarfs von HDDSystemen auskommen. Damit und einer laut Hersteller etwa 10 bis 20 mal höheren Zuverlässigkeit sollen die Betriebskosten um 60 Prozent geringer ausfallen. Das alles qualifiziert das Flashblade//E für die Einstufung als „Green All-Flash“, so Markus Grau, Principal Technologist bei Pure Storage.
Mit der Similarity-Based Data Reduction soll die Flash-basierte Universal-Storage-Lösung von Vast Data beim Speichern von strukturierten und unstrukturierten Daten deutlich effizienter arbeiten als andere Ansätze und so bei gleicher Datenmenge mit weniger Speichermedien auskommen. Zudem soll bei dem ohne Tiering arbeitenden Universal Storage die Trennung in CNodes, also
Weniger Energieverbrauch durch SSDs ist ebenfalls der Weg, den NetApp bei der neuen AFF-CSerie geht. Diese relativ günstigen Geräte der Einstiegskategorie sind mit QLC-NVMe-SSDs bestückt, die mit bis zu 30,72 TB pro Medium eine höhere Kapazität bieten als HDDs. Laut Johannes Wagmüller, Senior Director Solutions Engineering bei NetApp, soll die neue C-Serie die Lücke zwischen den günstigen Hybrid-Flash-Systemen der FAS-Serie und den Performance-FlashModellen der AFF-A-Serie schließen, wobei perspektivisch die Reise immer weiter in Richtung All-Flash geht. Als Vorteile nennt der Hersteller für die Serie mit den Modellen C250, AFF C400 und AFF C800 erheblich höhere Storage-Effizienz mit einer Datenreduktion von bis zu 5:1 abhängig von den Workloads. Zudem soll sie bis zu 85 Prozent weniger Kosten für Energie und Kühlung verursachen, als bisherige Hybrid-Flash-Systeme. Im ersten Quartal 2023 macht der Hersteller zudem Nachhaltigkeit zu einem Teil seiner Service-Level-Agreements für Kunden des Storage-as-a-Service-Angebots Keystone. Für jede SLA-basierte Leistungsstufe wird dabei ein Wattpro-TB-Wert definiert, der vom Hersteller einzuhalten ist.
Für andere Hersteller sind SSDs allerdings keineswegs der einzige Weg zu mehr Nachhaltigkeit und niedrigem Energieverbrauch bei Storage-Systemen. So argumentiert Manfred Berger, Senior Manager Business Development Platforms EMEAI bei Western Digital, damit, dass NAND-Flash durch seine Limitierung bei den möglichen
8 / DATA STORAGE / Titelstory
BILD: PURE STORAGE
toshiba-storage.com
•HeliumgefüllteModellemitbiszu20TB
•Industriestandard3,5Zoll,26,1mmFormfaktor
•7.200U/Min.Umdrehungsgeschwindigkeit
•SATA 6,0Gbit/soderSAS12,0Gbit/sSchnittstelle
•Niedrige Verlustleistungunddadurcheine ausgezeichneteEnergieeffizienz(W/TB)
•Zuverlässigkeit:2,5Mio.StundenMTTFbeibiszu 550TBArbeitslastproJahr
•SanitizeInstantErase(SIE)Optionverfügbar
Für:
•GeschäftskritischeServer-undSpeichersystememit hohemKapazitätsbedarf
•HerkömmlicheSpeicher-ArraysfürUnternehmen (RAID,softwaredefiniert)
•Cloud-SystemeundhyperskalierbareSpeichersysteme
•VerteilteDateisysteme,BigData
•Archiv-undDatenwiederherstellungssystemeder Enterprise-undder Cloud-Klasse
•ZentralisierteSystemezurSpeicherungvon Überwachungsdaten
Ihr ToshibaKontaktbeiTDSYNNEX: GCC Vertriebteam 08947002231 | DE_GCC_SPS@tdsynnex.com Mehr erfahren über TD SYNNEX Global ComputingComponents https://de.tdsynnex.com/portfolio/gcc
EnterpriseCapacityHDD
•IndustrielleServer-undSpeichersysteme EnterpriseCapacity HardDriveMG-Serie
ImZeitalterdergroßen DatenmengenbenötigenSie Festplatten,diedieseVolumen bewältigenkönnen.
Biszu 20TB
SPARSAMES HIGH-DENSITY JBOD VON LENOVO
Mit 62 Prozent weniger Strom als der direkte Vorgänger D3284 soll das neue Thinksystem
D4390 Direct Attached Storage von Lenovo auskommen. Das Gerät fasst bis zu 90 12GBNearline-SAS-Drives mit bis zu 18 TB Kapazität oder 2,5-Zoll-SSDs mit bis zu 800 GB Speicherplatz. Letztere in 3,5-Zoll-Trays. Zudem soll das Thinksystem D4390 bei gleicher Kapazität 60 Prozent weniger Platz im Rechenzentrum beanspruchen. Für eine höhere Leistung sorgt 24G SAS für die Anbindung an das Host-System. Bestimmt ist das Gerät für mittlere und größere Unternehmen.
Schreibzyklen für Anwendungen wie etwa Archiven kein sinnvoller Datenträger ist. Zudem konsumieren NVMe-SSDs unter Last bis zu 25 Watt, während die 26 TB große SMR-Festplatte Ultrastar DC HC670 mit maximal 10 Watt auskommt. Das in Estland angesiedelte Startup-Unternehmen Leil Storage verwendet die Host-Managed-SMRHDDs für einen in der Public und der Private CIoud verfügbaren Backup- und Archiv-Service. Durch die Nutzung der Power-Disable-Funktion, einer mit dem SATA-Standard 3.3 und SAS-3 eingeführten Funktion, kommt die Storage-Lösung mit sehr wenig Energie aus. Eine verdoppelte Bandbreite pro Festplatte bei nur um 25 Prozent erhöhtem Energieverbrauch ermöglicht die DualAktuator-Technik mit zwei unabhängig agierenden Laufwerksarmen mit Schreib-Lese-Köpfen. Seagate ist hier mit Mach 2 bei einigen Exos-Modellen Vorreiter, die beispielsweise RNT Rausch bei den Bigfoot-Storage-Servern verwendet. Western Digital hat im Januar nachgezogen und die Dual-Aktuator-Platte Ultrastar DC HS760 vorgestellt. Infinidat reklamiert für die Hybrid-FlashLösung Infinibox ebenfalls eine höhere Energieeffizienz als bei All-Flash-Lösungen bei gleichzeitig sehr guter Performance durch ein KIgestütztes Datenmanagement, das mittels Machine Learning für eine optimierte Nutzung des Flash-Speichers sorgt. Mit den schnelleren HDDs können Hybrid-Flash-Systeme weiter bei der Performance zulegen.
Eine höhere Effizienz durch weniger Overhead im lokalen Rechenzentrum können Storage-as-aService-Lösungen bewirken, wie sie neben Pure Storage und NetApp beispielsweise auch HPE mit
Greenlake, Dell mit Apex oder Lenovo mit Truscale anbieten. Hier wird nutzungsabhängig abgerechnet, was dazu führt, dass die Anbieter keine überflüssigen Überkapazitäten installieren. Wird doch mehr Speicherplatz benötigt, dann wird das oft durch eine intelligente Analyse bereits im Vorfeld erkannt und auf Wunsch ein entsprechendes Upgrade durch den Partner ausgelöst. Zudem enthalten praktisch alle As-a-Service-Angebote Komponenten für den Aufbau und die Verwaltung einer hybriden Cloud, dem bevorzugten Betriebsmodell vieler Unternehmen für ihre IT-Infrastruktur.
Datenmanagement ist laut einer Vorhersage der IDC-Marktforscher der Sektor innerhalb der ITInfrastruktur, bei dem die Ausgaben der Unternehmen am stärksten steigen, auf mehr als 50 Milliarden US-Dollar jährlich im Jahr 2026. Derzeit liegt die Summe bei etwa 40 Milliarden, so IDC. Die meisten Storage-Firmen sehen sich auch längst nicht mehr als Hersteller von Speichergeräten, sondern als Anbieter von Data-Management-Lösungen. Einige, wie etwa Qumolo, Scality oder Weka, bieten nur noch Storage-Software an, die sowohl auf dafür zertifizierten Servern von OEM-Partnern, als auch auf Cloud-Plattformen laufen. Aber auch die etablierten Spieler haben ihr Portfolio in die Cloud erweitert und sprechen damit gemeinsam mit ihren Partnern jene Kunden an, die zwar zunehmend Daten in die Public Cloud auslagern, aber unternehmenskritische Anwendungen im eigenen Rechenzentrum oder wenigstens bei Colocation-Anbietern halten wollen. Die Storage-Anbieter können hier Lösungen liefern, mit denen sich Daten schneller und günstiger zwischen dem Datacenter und einem oder sogar besser mehreren Cloud-Providern bewegen lassen. Zudem können Data-Management-Lösungen, die auch die Cloud einbeziehen, dabei helfen, die oft unübersichtlichen Gebührenstrukturen der Hyperscaler transparenter zu machen.
10 / DATA STORAGE / Titelstory
BILD:LENOVO
DER ULTIMATIVE SPIELVORTEIL
SN850X NVMe™ SSD
KÜHLKÖRPERMODELL ABGEBILDET
Spezieller Speicher für Highend-Gaming
Verkürzen Sie die Ladezeiten und reduzieren Sie Framerate-Einbrüche, Lags und nachgeladene Modelle mit der WD_BLACK™ SN850X NVMe™ SSD, dem Gaming-Speicher für erstklassige Leistung. Mit den modernen Funktionen vom Gaming-Modus 2.0 (nur Windows®) und Geschwindigkeiten an der Grenze von PCIe® Gen4* liefert die WD_BLACK SN850X die perfekte Leistung für den entscheidenden Spielvorteil.
PCIe Gen4-Speichertechnologie erfordert ein kompatibles Motherboard. Die WD_BLACK™ SN850X NVMe SSD ist abwärtskompatibel mit PCIe Gen3. Western Digital, das Logo von Western Digital, WD_BLACK und das Logo von WD_BLACK sind eingetragene Marken oder Marken der Western Digital Corporation oder ihrer Tochterunternehmen in den USA und/oder anderen Ländern. NVMe ist eine Marke von NVM Express, Inc. PCIe ist eine eingetragene Marke und/oder Servicemarke von PCI-SIG in den USA und/oder anderen Ländern. Windows ist eine Marke der Microsoft Corporation. Alle anderen Marken sind Eigentum ihrer jeweiligen Inhaber. Änderungen der technischen Produktdaten ohne Vorankündigung vorbehalten. Die gezeigten Bilder können vom tatsächlichen Produkt leicht abweichen.
©2023 Western Digital Corporation und Tochterunternehmen. Alle Rechte vorbehalten.
Daten
über Daten
Den Zahlen von Roland Berger zufolge wird sich das Marktvolumen von Speichertechnologien in Deutschland innerhalb 10 Jahren mehr als verdreifachen. Für das Jahr 2030 wird prognostiziert, dass der Markt einen Umsatz in Höhe von rund 23 Milliarden Euro erzielt.
Prognose zum Marktvolumen von Speichertechnologien in Deutschland in den Jahren 2020 bis 2030 (in Millionen Euro)
„Die Menge der weltweit generierten Daten wächst seit Jahren exponentiell und übersteigt alles, was man sich in der Vergangenheit vorstellen konnte.“
Rainer Kaese, Senior Manager, HDD Business Development bei Toshiba Electronics Europe
Für immer verloren
In einer ArcserveStudie berichten 75 Prozent der Befragten in Deutschland, dass sie in ihrem Unternehmen kritische Daten nach einem schwerwiegenden Verlust wiederherstellen mussten. 52 Prozent davon erlitten einen dauerhaften Verlust von Teilen oder von allen Daten.
In vielen Client-Systemen haben SSDs die Festplatte verdrängt, allerdings sind SSDs viermal so teuer als HDDs. Daher werden günstige PCs, die viel Speicherplatz bieten sollen, weiterhin mit HDDs ausgestattet.
Arbeitsspeicher im Überfluss
Arbeitsspeicher machten laut Gartner 2022 rund 25 Prozent des Halbleiterumsatzes aus. Damit musste das Segment einen Umsatzrückgang von 10 Prozent verzeichnen. Mitte 2022 zeigte der Speichermarkt bereits Anzeichen eines deutlichen Nachfrageeinbruchs, da Hersteller von Elektronikgeräten begonnen haben, ihre Speicherbestände zu abbauen, die sie für den Fall einer stärkeren Nachfrage gelagert hatten. Die Bedingungen haben sich inzwischen so weit verschlechtert, dass die meisten Speicherhersteller für 2023 eine Reduzierung der Investitionsausgaben angekündigt haben und einige die Wafer Produktion gedrosselt haben, um die Lagerbestände zu reduzieren und so versuchen, die Märkte wieder zu normalisieren.
12 / DATA STORAGE / Marktbarometer
BILD:
BILD: CACHACO-STOCK.ADOBE.COM
TOSHIBA ELECTRONICS EUROPE
QUELLE: STATISTA BILD:MAKSYMYEMELYANOV-STOCK.ADOBE.COM 0 5.000 10.000 15.000 20.000 25.000 30.000 2020 2030 7.000 23.000 Marktvolumen in Millionen Euro
Hochverfügbarkeit für den Mittelstand.
Seit über 15 Jahren mit StorMagic
Kleine und mittlere Unternehmen (KMU) sind das Herzstück der deutschen Wirtschaftsleistung. Zahllose mittelständische Unternehmen im ganzen Land produzieren Waren und erbringen Dienstleistungen, und jedes von ihnen benötigt stabile und zuverlässige IT-Systeme, um den Geschäftsbetrieb aufrechtzuerhalten.
Doch komplexe Lösungen kosten Geld – Geld, das viele Unternehmen nicht haben. Ein häufiges Problem für KMU ist, dass sie sich auf ältere IT-Systeme verlassen, die ihre besten Zeiten hinter sich haben und den Anforderungen moderner Anwendungen und der anfallen den Datenmengen nicht gewachsen sind.
Die Antwort auf diese Herausforderungen ist eine Lösung, die sowohl eine hochsolide Zuverlässigkeit als auch Hochverfügbarkeit für die Anwendungen und Daten eines KMUs bietet und gleichzeitig so kosteneffizient wie möglich ist. Diese Lösung ist StorMagic SvSAN – ein softwaredefiniertes virtuelles SAN, passend für jeden Standard-x86-Server mit VMware, Hyper-V oder KVM - sogar unabhängig von der eingesetzten Speichertechnologie. Die Anforderungen und die Architektur von SvSAN sind extrem schlank – kleine und mittlere Unternehmen können hochverfügbare 2-Knoten-Cluster aufbauen, die ihnen eine 100-prozentige Betriebszeit bieten und sicherstellen, dass ihr Unternehmen betriebsbereit bleibt, selbst wenn ein Knoten ausfällt.
>> StorMagic SvSAN bietet 100% Uptime und ermöglicht uns eine hohe Verfügbarkeit auf kleinstem Raum, welche einzigartig am Markt ist. Unser SvSANCluster mit zwei Knoten bedeutet, dass Ausfallzeiten für unsere beiden Niederlassungen der Vergangenheit angehören. Patric Schleicher, IT-Leitung Forschner Gruppe
SvSAN wird bereits von Hunderten deutscher Unternehmen aller Branchen eingesetzt, von Herstellern wie der Rommels-
bacher Elektro Hausgeräte GmbH, die industrielle IoT-Endpunkte aktiv und Produktionslinien in Betrieb halten, bis hin zu Reiseveranstaltern wie hauser.reisen GmbH, die ERP- und CRM-Systeme online halten. Jeder hat andere Anforderungen und Herausforderungen, die bewältigt werden müssen, um den Betrieb aufrechtzuerhalten und Umsatzeinbußen zu vermeiden. In jedem Beispiel bietet SvSAN hochverfügbaren, gemeinsam genutzten Speicher, eliminiert anfällige Single Points of Failure und ermöglicht es jedem Unternehmen, seine ITArchitektur zu modernisieren und eine hyperkonvergente Infrastruktur einzuführen.
StorMagic hat unter der Leitung von Regional Sales Manager Tobias Pföhler ein umfassendes Partnernetzwerk in Deutschland aufgebaut. Dies ermöglicht Resellern und Integratoren einen einfachen Zugang zu StorMagicLösungen, was ihnen bei Verhandlungen mit Kunden über IT-Projekte einen Vorteil verschafft. Die geringen Kosten und minimalen Systemanforderungen von SvSAN sorgen dafür, dass KMUs keine großen und teuren Änderungen an ihrer IT-Infrastruktur vornehmen müssen. Partner können daher sicher sein, dass das Angebot einer StorMagic-Lösung die Chance auf ein erfolgreiches Projekt erhöht. Ein solches Beispiel ist der Fall der Eugen Forschner GmbH, einem Hersteller von elektrischen Automobilkomponenten für große Automobilmarken. Forschner hatte eine physische SAN-Lösung im Einsatz, die einen Single Point of Failure in der IT-Architektur darstellte und für die Speicherung von Anwendungsdaten aus Konstruktion, Produktion, Büro, CRM und SQL-Datenbanken verwendet wurde.
Scannen Sie den QRCode und lesen Sie die ganze Geschichte über die Eugen Forschner
GmbH auf der StorMagic Website: stormagic.com/forschner
LinkedIn: Tobias Pföhler
Advertorial
BILD: B4LLS
Die Aufgaben für den Channel wachsen
Wachsende Datenmengen, hybride Umgebungen, Bedrohung durch Ransomware – die Anforderungen an die Flexibilität und Sicherheit von Speicherinfrastrukturen steigen. Umso mehr ist die Expertise von Systemhäusern gefragt.
Storage und Data Management bilden eine tragende Säule des Channel-Geschäfts. Die meisten mittelständischen Unternehmen betrauen das Systemhaus ihres Vertrauens mit dem Aufbau und der Wartung ihrer Speicherinfrastruktur. Und immer häufiger geben sie auch deren Betrieb in die Hände des Dienstleisters. Denn die Komplexität steigt kontinuierlich an. Nicht nur, dass die Datenmengen der Unternehmen stetig weiterwachsen und die Fragmentierung der Speicherorte zunimmt, weil immer mehr Workloads, und damit auch Daten, in die Cloud verlagert werden. Auch die rechtlichen Anforderungen an die Datenhaltung haben sich über die vergangenen Jahre verschärft. Nicht zuletzt nehmen die Bedrohungen aus dem Cyberspace dramatisch zu.
Mit der Komplexität steigen auch die Anforderungen an Systemhäuser. Zugleich ergeben sich für sie aber Möglichkeiten, das Dienstleistungsgeschäft bei ihren Kunden auszubauen. Die Pandemie habe „der Verlagerung von Daten in die Cloud einen deutlichen Schub verliehen“, beobachtet Stefan Tübinger, Chief Technology Officer (CTO) beim Bensheimer Systemhaus Concat. Unternehmen seien heute offener dafür, die Spei-
cherung und das Management von Daten aus der Hand zu geben: zu einem Dienstleister oder in eine Cloud. Dabei differenzieren sie dem Experten zufolge unter anderem nach Kritikalität der Geschäftsdaten und nach Latenz: Produktionsdaten bleiben On-Premises wegen kurzer Zugriffszeiten, E-Mail-Konten kommen in die Cloud. Die Gründe für die Auslagerung seien vielfältig: „Der Fachkräftemangel und neue Themen wie NVMeover-TCP/Fabric oder Container bewirken, dass IT-Teams nicht mehr Schritt halten können mit den Anforderungen der technischen Entwicklung.“ Die steigende Komplexität führe dazu, dass Unternehmen entweder einfach zu administrierende Lösungen nachfragen oder immer häufiger „den Betrieb von Storage, Server, Netzen, Firewall et cetera teilweise oder vollständig an unsere Managed-Service-Abteilung übertragen“.
Die Containerisierung auf der Basis von Kubernetes hält auch Erik Sterck, Geschäftsführer der Erik Sterck GmbH aus Leonberg, für eine wichtige Innovation. Denn die verteilte Datenhaltung in Hybrid-Cloud- beziehungsweise in MulticloudSzenarien mache „eine flexible Technologie erforderlich, die eine Verschiebung von Workloads an
14 / DATA STORAGE / Dienstleister
BILD: GORODENKOFF - STOCK.ADOBE.COM
unterschiedliche Orte unkompliziert ermöglicht“, erläutert der IT-Profi. Container bilden dafür die geeignete Infrastruktur. Unter der Bezeichnung „FramES“ bietet das schwäbische Systemhaus seit zwei Jahren eine automatisierte Plattform an, über die sich Kubernetes-Cluster mittels grafischer Benutzeroberfläche innerhalb von Minuten bereitstellen lassen. „Bezogen auf Data-Management-Systeme bedeutet die Containerisierung zunehmend die Anforderung, persistenten Storage für die Kubernetes-Welt zur Verfügung zu stellen.“
Noch nie waren Daten so gefährdet wie heute. Nach Zahlen von Check Point Research nahm die Zahl der Cyberattacken in Deutschland im vergangenen Jahr gegenüber 2021 um 27 Prozent zu. 46 Prozent der Unternehmen wurden laut Statista mindestens einmal Opfer eines Angriffs. „Alle treibt die Sorge vor Ransomware um“, bringt Tübinger das Problem auf den Punkt. Wichtig für die effektive Abwehr seien professionelle Maßnahmen zur Cybersecurity „inklusive eines ausgefeilten Backup-Konzepts nach Empfehlungen des BSI, bei dem bereichsübergreifend alle potenziellen Lücken geschlossen werden“. Dazu gehören dem Concat-CTO zufolge neben Netzwerksegmentierung, Firewall-Architektur und Endpoint Detection & Response (EDR) ein Immutable Backup, bei dem gesicherte Daten nicht mehr geändert werden können, sowie eine sichere, georedundante Disaster-Recovery-Umgebung, die über Air Gap abgeschottet ist und eine schnelle Wiederherstellung ermöglicht.
Einen Schlüssel zur Ransomware-Abwehr sieht Sterck in der Auswahl der richtigen Technologie. Für sinnvoll hält der StorageExperte proprietäre File-Systeme, in denen Daten unveränderbar abgelegt werden, sodass sie nicht einfach verschlüsselt werden können. Wichtig sei zudem die ständige Prüfung auf Anomalien. Wenn ein Unternehmen erfolgreich angegriffen werde, müsse die Attacke schnell erkannt und es müsse umgehend transparent gemacht werden, welche Daten davon betroffen sind. „Dann müssen intelligente Werkzeuge helfen, einen produktiven Normalzustand wiederherzustellen, ohne Erpres -
sung und Lösegeldzahlung. Dabei punkten eher Hersteller, die die einst so hoch gepriesene Offenheit der Systeme zugunsten der Sicherheit einschränken“, gibt der Systemhauschef zu bedenken. „Wenn ein System über multiple Protokolle irgendwie alles kann und über einige offene Schnittstellen verfügt, steigt die Anzahl der möglichen Anfälligkeiten exponentiell an.“
Nachhaltigkeit ist eine weitere Anforderung, die neben Flexibilität und Sicherheit zunehmend an Speicherinfrastrukturen gestellt wird. Immerhin entfällt in einem typischen Rechenzentrum etwa ein Viertel des Energieverbrauchs auf Storage. „In der Gesamtheit kann der Markt mit weniger Material, mit weniger Systemen auskommen, wenn Technologien effizient genutzt werden“, ist Sterck überzeugt. So müssten Daten nicht mehrfach kopiert und doppelt oder dreifach abgelegt werden. Vielmehr gebe es effizientere Methoden, um Daten logisch mehrfach vorzuhalten, etwa durch Snapshots oder virtuelle Kopien. Als Vorreiter in puncto Nachhaltigkeit nennt der IT-Unternehmer den Anbieter NetApp, der schon zur Finanzkrise 2008 / 2009 mit der Kampagne „Storage Efficiency“ gezeigt habe, wie sich Einsparungspotenziale im Data Management über technische Features erschließen lassen. Sterck arbeitete damals noch im Vertrieb von NetApp.
„Ein guter Ansatz zur Reduzierung des CO2-Fußabdrucks ist das IT-as-a-ServiceModell“, betont Tübinger. „Es ist besonders attraktiv für Unternehmen, die sich schwertun, auf fünf Jahre in die Zukunft ihr Datenwachstum zu prognostizieren.“ Statt zu kaufen, buchen sie die benötigten Ressourcen und bezahlen nur den monatlichen Verbrauch. Nach den Worten des Concat-Managers vermeiden die Unternehmen so hohe Anfangsinvestitionen und müssen keine Überkapazitäten vorhalten. „Das spart auf fünf Jahre eine erhebliche Menge an Energie, Stellfläche und senkt überdies den Betriebsaufwand.“
Mehr unter: https://voge.ly/vglYtGs/
Autor: Michael Hase
„Wenn ein System über multiple Protokolle irgendwie alles kann und über einige offene Schnittstellen verfügt, steigt die Anzahl der möglichen Anfälligkeiten exponentiell an.“
„Ein guter Ansatz zur Reduzierung des CO2Fußabdrucks ist das ITas-a-Service-Modell. Es ist besonders attraktiv für Unternehmen, die sich schwertun, auf fünf Jahre in die Zukunft ihr Datenwachstum zu prognostizieren.“
Dienstleister / DATA STORAGE / 15
Erik Sterck, Geschäftsführer der Erik Sterck GmbH
BILD:
BILD: CONCAT
Stefan Tübinger, Chief Technology Officer bei Concat
KAI R. JOACHIM
Storage-Systeme effektiv schützen
Um ein Storage-System erfolgreich zu schützen, bieten sich die Verfahren Backup/Disaster Recovery, Verschlüsselung, Object Lock und WORM an. Deren Einsatz kann im eigenen Haus und in der Hybrid Cloud umgesetzt werden.
Neun von zehn Unternehmen sind bereits mit Ransomware angegriffen worden, und täglich werden Hunderte neuer Malware-Varianten erzeugt. Die Frage lautet also nicht mehr, ob, sondern wann ein Unternehmen angegriffen wird. Die bereits entstandenen Schäden gehen in die Milliarden. Zum Lösegeld kommen Image-Schäden und Produktivitätsausfälle hinzu – vom Wert der verlorenen Daten ganz zu schweigen. Denn inzwischen werden als erstes die Sicherungskopien eines Unternehmens angegriffen.
Das einfachste und grundlegende Verfahren besteht in der Replikation von Daten. Im Bankensektor gibt es dazu eine gesetzliche Verpflichtung. Die Aufspaltung großer und daher langsamer Datenströme in mehrere kleine und parallele Datenströme zur Beschleunigung von Datentransfers, das sogenannte Multistreaming, gehört für entsprechende Anbieter zu den erfolgskritischen Technologien für die Sicherung steigender Datenmengen.
Ein wichtiges Verfahren für die Storage-Security besteht darin, mehrere Generationen von Backups anzulegen. Diese Sicherungskopien können schrittweise, als Snapshots oder als vollständiges
Backup angelegt und mit einem Zugangsverfahren wie etwa Multi-Faktor-Authentifizierung geschützt werden. Einen zusätzlichen Schutz vor unbefugtem Zugriff bietet das sogenannte AirGap-Verfahren. Es richtet eine physische oder logische Lücke zwischen dem Nutzersystem und dem Backup-System ein. Eine Bandbibliothek wäre ein verbreitetes Beispiel dafür, denn dort kann ein Roboter die nötige Arbeit verrichten.
Ebenso wichtig wie die Sicherung ist die Wiederherstellung der Unternehmensdaten. Sie kann vom Backup-System auf verschiedene Zielsysteme oder das Originalsystem erfolgen. Die wichtigen Eckdaten Recovery Time Objective und RPO (Recovery Point Objective) tragen wesentlich dazu bei, den Schaden bei einem erlittenen Angriff einzudämmen. Sie bezeichnen einerseits den Ausfallzeitraum zwischen dem letzten Backup-Lauf sowie den zeitlichen Umfang eines Backups, das wiederhergestellt werden soll. Diese Eckdaten sind über die SLAs bei einem Dienstleister durchzusetzen. In jedem Fall müssen wiederherzustellenden Backups nochmals gescannt werden. Um sie zusätzlich vor unbefugtem Zugriff und Manipulation zu schützen, bietet sich Verschlüsselung an. Der gängige Schlüssel ist AES-256,
16 / DATA STORAGE / Security
kürzere sollte man mit dem zugehörigen Key Management System (KMS) nicht verwenden, weil sie zu leicht zu knacken sind. Neu ist das SplitKey-Verfahren, das verschiedene Hälften eines Schlüssels auf verschiedene Accounts, Server oder Backup-Systeme mit KMS verteilt. Die Angreifer bringen den Geschäftsbetrieb zum Erliegen, indem sie den Zugriff auf Produktionsdateien und Speichergeräte verschlüsseln. In der Regel verschlüsselt Ransomware nur Daten, die auf dem Primärspeicher vorgehalten werden. Die Angreifer wissen, dass bereits die herkömmliche Daten-
wiederherstellung (Disaster Recovery, DR) von Bandspeicher oder anderen Archiven sehr zeitaufwändig – und nicht immer erfolgreich – ist. Dies erhöht die Chance, dass Unternehmen auf die Lösegeldforderung eingehen. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) rät dringend von Zahlungen ab. Neuere Ransomware zielt mittlerweile jedoch auch auf die Backups selbst ab und modifiziert oder löscht sie vollständig.
Die Wiederherstellung (DR) von Daten, die beschädigt, gesperrt oder verschlüsselt wurden, ist generell eine effektive Methode, um Ransomware-Angriffe ohne größere Auswirkungen auf den Geschäftsbetrieb zu überstehen. Je genauer diese Daten identifiziert werden können, desto geringer ist der Restore-Aufwand. Zudem dürfen die Backups nicht ebenfalls betroffen sein, denn sobald diese betroffen sind, sind sie wertlos. Daher empfiehlt sich in der Regel das Anlegen von Sekundär-Backups, die mit den primären synchronisiert, aber gesondert geschützt sein sollten, etwa durch starke Verschlüsselung. Moderne Lösungen für Cloud Data Management (CDM) oder Multi-Cloud Data Control verwenden eine auf unveränderbare Daten ausgelegte „Immutable“-Architektur. Sie kombiniert ein Dateisystem mit unveränderbarer Speicherung mit einem Zero-Trust-Cluster-Design.
Ähnliche Themen unter: https://voge.ly/vgl46qF/
Autor: Michael Matzer
RTO UND RPO TRAGEN WESENTLICH DAZU BEI, DEN SCHADEN BEI
EINEM ERLITTENEN ANGRIFF EINZUDÄMMEN
Recovery Time Objective (RTO): Die Zeitspanne der zulässigen (verkraftbaren) Downtime wird bei der Definition von Service-Levels in der Kategorie RTO oder Recovery Time Objective festgelegt. Diese Wiederanlaufdauer ist die von der Geschäftsführung definierte maximale Zeit, nach der die Wiederherstellung eines Computers, Systems, Netzwerks oder einer Anwendung nach einem Ausfall oder einer Katastrophe beendet sein sollte.
Die Festlegung der RTO hat ihren Maßstab einerseits in den zu erwartenden Einnahmeverlusten je Zeiteinheit und andererseits in den Kosten der
benötigten Verfügbarkeitstechnik. Die RTO wird in Sekunden, Minuten, Stunden oder Tagen gemessen und ist wichtig bei Überlegungen, wie viel Zeit nach einem Disaster zum „Recovern“ zur Verfügung steht.
Ein Beispiel zur Verdeutlichung von RPO: Erfolgte die letzte Datensicherung vor zwei Stunden, würde das bedeuten, die Daten der letzten 7.200 Sekunden wären verloren, wenn der Server mit seinem Speichersystem einen Totalschaden erleiden würde. Letztlich ist es eine Abwägung des hinnehmbaren Risikos und wie teuer es wäre, die verlorenen Daten wiederherzustellen.
Security / DATA STORAGE / 17
BILD: MIHA CREATIVE - STOCK.ADOBE.COM
Blockchain-Player krempeln das Speichergeschäft um
Das Bessere ist des Guten Feind: Blockchain-Technik bringt Vorteile in Sachen Datenspeicherung mit sich, die bald disruptive Wirkung entfalten könnte.
schwer, auf die Daten zuzugreifen, da es keine zentrale Stelle gibt, die angegriffen werden könnte. Denn es fehlt die zentrale Instanz, die den Zugriff auf die Dateien kontrolliert oder die Schlüssel in Verwahrung hält, die zur Entschlüsselung gebraucht werden. Die privaten Schlüssel werden vielmehr ausschließlich von den Nutzern kontrolliert. Umgesetzt wird dies mit der so genannten Distributed-Ledger-Technologie (DLT), eine dezentrale Datenbank, die das Management im Hintergrund übernimmt. Die Speichertransaktionen führt das DLT in Stapelverarbeitung chronologisch aus und speichert diese im Sinne eines Hauptbuchs auf einer Reihe von Blöcken. Diese Blöcke bilden eine miteinander verknüpfte Kette in der jeder Block auf den vorherigen Block verweist, so dass eine Blockchain entsteht.
Das Blockchain-Konzept beinhaltet konzeptionell keinen „Single Point of Failure“ (SPOF) und ist damit potenziell sicherer als Cloud-Speicherung. Zudem könnte diese Speichermethode weitaus kostengünstiger ausfallen, sodass disruptive Innovationen im Web 3 an die Tür klopfen. Als „Single Point of Failure“ werden allgemein Teile eines Systems bezeichnet, deren Ausfall das Gesamtsystem ausfallen lassen. Nicht ohne Grund werden große Cloud-Anbieter mitunter mit dem Adjektiv „systemrelevant“ versehen.
Trotz aller Bemühungen mit Redundanzen und Kopien der Dateien dieses Ausfallrisiko zu minimieren, steht das bei zentralen Anbietern immer im Raum. Blockchain-Speicher geht anders vor, denn hier wird in einem dezentralen Netzwerk gespeichert, welches ungenutzten Festplattenspeicherplatz von Netzwerkteilnehmern auf der ganzen Welt zur Datenspeicherung nutzt. Die Dezentralität dieser Architektur ist ein Gegenmodell zu den gängigen zentralen Cloud-Speichern, welches einige Sicherheitsvorteile mit sich bringt. Die verschlüsselten Dateien und die Verteilung über das dezentrale Netzwerk macht es Angreifern sehr
Zu den bekannteren Anbietern auf diesem Markt zählt Filecoin, wobei sich andere Konzepte derselben Grundlagen bedienen. Dateien werden in kleinere Segmente zerlegt, verschlüsselt und an mehrere Knoten im Netzwerk verteilt, um Redundanz und Verfügbarkeit sicherzustellen. Speicheranbieter können dabei freie Kapazitäten auf ihren Geräten zur Verfügung stellen und werden für ihre Dienstleistungen mit der Kryprowährung Filecoin belohnt, die in andere Kryptowährungen getauscht oder für gesetzliche Zahlungsmittel verkauft werden kann. Benutzer speichern Daten auf dem Netzwerk und zahlen dafür Filecoins. Transaktionen und Speicherverträge werden auf der Blockchain protokolliert und über ein Netzwerk von Miner-Knoten bestätigt. Bei den Kosten spielen Angebot und Nachfrage an Speicherplatz sowie der Kryptowährungskurs eine Rolle, aber sie könnten sich auf einen Bruchteil der Kosten von regulärem Cloud-Speicher einpendeln.
Filecoin und ähnliche Konzepte sind dezentrale Speicherungs- und Datenverteilungs-Netzwerke, die auf der Blockchain-Technologie basieren.
Autor: Dr. Stefan Riedl
18 / DATA STORAGE / Blockchain
BILD: YOUR123 - STOCK.ADOBE.COM
Storage und Umwelt Hand in Hand
Rechenzentren machen 1 Prozent des weltweiten Stromverbrauchs aus. Das Weltwirtschaftsforum schätzt, dass die Digitalisierung im Jahr 2020 4 Prozent der globalen Treibhausgas-Emissionen verursacht hat.
Wenn die Emissionen maßstabsgetreu eingesetzt werden, könnten diese bis 2050 um 20 Prozent gesenkt werden. Diese Fakten veröffentlicht Pure Storage im Rahmen einer globalen Umfrage zu Auswirkungen der IT auf die Umwelt. Laut Steve McDowell, Analyst bei Insights & Strategy, könnten Rechenzentren bis 2025 mehr als 3 Prozent des weltweiten Stroms verbrauchen. Davon trägt der Speicher bis zu 30 Prozent des Gesamtverbrauchs eines Rechenzentrums bei. Rechenzentren und Digitalisierung spielen also zweifellos eine entscheidende Rolle bei der Nachhaltigkeitsstrategie von Unternehmen.
Eine nachhaltige IT-Infrastruktur zeichnet sich durch hohe Effizienz, Skalierbarkeit und Einfachheit aus. Neun von zehn Entscheidern von Nachhaltigkeitsprogrammen behaupten, dass die Nachhaltigkeitsziele nicht erreicht werden können, wenn der Energieverbrauch der TechInfrastrukturen nicht erheblich gesenkt wird. Ein Apell zu Veränderungen gilt also klar der IT weltweit, um Reduktionen zu erzielen und den CO2-Fußabdruck sauber zu halten – wenn auch in Zeiten der Energiekrise. Datenspeichersysteme wurden vermehrt auf die Cloud umgestellt. Der Energie -
verbrauch ist im Vergleich zu herkömmlichen Methoden zwar ähnlich. Der CloudBezug macht Storage flexibler, erweitert die Kapazitäten und ist ressourcenschonender. Die Datenspeicherung im Rechenzentrum erfordert daneben Elektrizität für die Speichergeräte. Allein die Kühlung oder Belüftung der Server verbrauchen viel Energie. Selbst ungenutzte Raumflächen nehmen einiges in Anspruch. Rechenzentren an sich sind zwar nicht direkt Umweltverschmutzer, die Energieversorgung und die elektrischen Geräte senden allerdings Schadstoffe in die Atmosphäre.
Cloud-Anbieter wurden für Unternehmen attraktiv. Oftmals verfügen diese über mehrere Rechenzentren an verschiedenen Standorten – manchmal erstrecken sie sich über Acker und Land. Doch auch der Datentransport von A nach B verbraucht wiederum einiges an Energie. Dies sieht anders aus, wenn die Speicherung lokal erfolgt, sprich sich das Speichergerät im gleichen Gebäude befindet. Hornetsecurity, Experte für Cloud Security und Backup, bietet Kunden weltweit die Möglichkeit, die Daten jeweils lokal in den Rechenzentren zu speichern. Dass der Trend hingeht zu einer verteilten IT sowie einer IT, die sich vom zentralen
20 / DATA STORAGE / Nachhaltigkeit
BILD: TOOKITOOK - STOCK.ADOBE.COM
Rechenzentrum bis zur Cloud erstreckt und auch über entfernte Standorte, bestätigt auch Fujitsu in einem White Paper. Die Budgets für Speicher steigen und neue Modelle wie Storage as a Service werden stärker nachgefragt, bestätigt Fujitsu im Rahmen der IDG-Studie „Enterprise Storage 2021“. Der lokale Aspekt kommt folglich wieder entscheidend zum Tragen. Wie kann man also umweltfreundlicher speichern?
Eine Möglichkeit, die Umwelt bei Datenspeicherung stärker zu berücksichtigen, ist eine umfangreichere lokale Ausrüstung. Zieht ein Unternehmen doch einen Anbieter von Cloud-Storage in Betracht, hilft es, diesen in Bezug auf das Nachhaltigkeits-Engagement genauer zu überprüfen. Darüber hinaus ist ein wichtiger Schritt, wenn immer es möglich ist, gewonnene Energien aus Solar-, Wind- oder Wasserkraftquellen wiederzuverwenden. Nicht benutzte Daten, sogenannte Dark Data, sollte gelöscht werden, um unnötigen Energieverbrauch zu vermeiden. Bei Sekundärdaten, auf die selten zugegriffen wird, können Cloud-Speicher eine sinnvolle Alternative sein. Statistisch handelt es sich bei 60 Prozent um „kalte“ Daten, bei 30 Prozent um „warme“ und bei 10 Prozent um „heiße“ Daten, erklärt Ines Wolf, Presales Manager CE von Quantum. Auf die kalten Daten wird selten zugegriffen, sie sind eher inaktiv.
„Old but gold“ gilt wohl für die „totgeglaubten“ Bandspeicherlösungen. HPE bietet solche beispielsweise an und bekennt sich zur Netto-Null-
Verpflichtung bis 2040. Das Unternehmen hat eine detaillierte Roadmap entwickelt, um dorthin zu gelangen und überträgt den Nachhaltigkeitsgedanken auch auf die Lösungen.
Tape-Storage gehört bei der Datenspeicherung in vielen Unternehmen nach wie vor zum BackupKonzept. Auch wenn ein regelmäßiger Bandwechsel aufwendig ist, weist die Bandtechnologie gegenüber anderen Speicheroptionen Vorteile auf. Cloud-Speicher sind dahingegen gefährdeter, wenn es um Ransomware geht, die Tape-Technologie lässt sich schwerer durch Malware infiltrieren. Gerade WORM-Tapes (Write Once Read Many) können nicht überschrieben oder nachträglich verschlüsselt werden, so dass die Daten unveränderlich sind. Zudem werden die Bänder häufig an externen Standorten aufbewahrt. Die räumliche Trennung erhöht den Schutz. Selbst wenn Ransomware erfolgt, haben es Cyberkriminelle schwer, auf die extern gelagerten Daten zuzugreifen. Zwar verbraucht die mit dem Bandlaufwerk verbundene Hardware Strom, das Band selbst aber nicht. Für die Tapes ist keine Kühlung oder Sonderbehandlung erforderlich. Dadurch könnten die CO2-Emissionen um das 6,5-fache reduziert werden, laut einer Studie der Enterprise Strategy Group. Zudem sind sie robust und haben eine lange Lebensdauer.
Mehr Regularien und Konzepte zu Nachhaltigkeit in der IT unter: https://voge.ly/vglhb5z/
WEITERE TIPPS ZU GRÜNEN SPEICHERMETHODEN
Es bietet sich an, die einzelnen Server auf Energieanforderungen zu überprüfen und gegebenenfalls durch energieeffizientere Varianten auszutauschen. Speichergeräte, die nicht im Einsatz sind, können heruntergefahren und für künftige Einsätze aufbewahrt werden.
Hornetsecurity hat da ein cleveres Verfahren beim Speicherserviceprozess im Petto, wie Gründer Daniel Hofmann erklärt: Der Backup- und Sicherheitsspezialist
steuert die Festplatten des Kunden in verschiedenen Rechenzentrumsabteilen. Ist eine Festplatte vollgeschrieben, wird sie einfach abgeschaltet, die Kopie davon ist gesichert.
Ergo läuft die „Online“-Platte weiter und steht für einen dauerhaft schnellen Zugriff zur Verfügung, die andere ruht. Einmal monatlich wird außerdem abgeglichen, ob alle Daten gleichermaßen gespeichert und gesichert sind.
Nachhaltigkeit / DATA STORAGE / 21
BILD: NILIMA - STOCK.ADOBE.COM
Autor: Barbara Miletic
AWS will Leistung seiner Storage-Services steigern
Auf seiner Anwenderkonferenz hat Amazon Web Services (AWS) zahlreiche Neuheiten im Bereich seiner Speicherdienste vorgestellt oder angekündigt. Das Augenmerk lag nicht zuletzt auf der Leistungssteigerung.
Data Science, Machine Learning, CI/CD, ContentManagement, SaaS-Apps und Web-Services.
In AWS Backup sind große Mengen von Daten gespeichert, die mit einer zentralen Backup-Strategie gesteuert werden können, um die Daten zu schützen. Neu ist das Zusammenspiel mit dem Data Warehouse Amazon Redshift, mit dem sich Cloud-Daten analysieren lassen. Mit AWS Backup können Anwender nun ganze Redshift-Cluster sichern, denn Redshift erlaubt automatische und manuell verwaltete Snapshots. Für den Service Amazon Elastic File System hat AWS einen neuen Modus vorgestellt: Amazon EFS Elastic Throughput erhöht den Datendurchsatz je nach dem Bedarf des Nutzers. Der Modus soll die Anwendungen des Kunden mit dem maximal benötigten Durchsatz versorgen. EFS arbeite nun mit bis zu 60 Prozent geringerer Latenz, was bis zu 250 Mikrosekunden entsprechen könne. Die Abrechnung erfolgt nach dem Pay-as-you-use-Preismodell. Daher eignet sich dieser Modus am besten für Workloads mit schwer vorhersagbaren Leistungsanforderungen, so etwa Analytics und
Neu ist die Möglichkeit, mit AWS Backup komplette CloudFormation Stacks zu sichern, also Infrastruktur-as-Code zu nutzen, um alle CloudRessourcen einer Anwendung zu erfassen und zu sichern. Der CloudFormation Stack, der eine leichte Verwaltung aller Cloud-Ressourcen und ihre Übertragung auf AWS-Konten und -Regionen erlaubt, enthält Stateful-Komponenten wie Datenbanken und Dateisysteme sowie StatelessKomponenten wie etwa Container. Mit einer entsprechenden Policy in AWS Backup werden alle zustandsbehafteten Komponenten eines Stacks gesichert und bei Bedarf wiederhergestellt. Das macht das Schreiben und Verwalten individueller Skripte zum Sichern der einzelnen Ressourcen überflüssig. S3 unterstützt jetzt kontenübergreifende Zugriffspunkte und Regionen-übergreifende S3-Zugriffspunkte lassen sich nun mit FailoverKontrollen versehen.
Wie AWS Backup ist auch AWS Elastic Disaster Recovery (AWS DRS) ein wesentlicher Service, wurde aber ursprünglich nur für On-PremisesInstallationen angeboten. Kunden können sich die teure DR-Hardware sparen und stattdessen AWS DRS kostengünstig abonnieren. Mit Failback in AWS bietet sich Kunden die Option, für Amazon EC2-Instanzen nicht mehr On-Premises als Failback-Ziel anzugeben, sondern die ursprüngliche AWS-Region. Sowohl Failover- als auch Failback-Prozesse (sowohl für On-Premises als auch in AWS-Recovery) lassen sich bequem von der AWS Management Console aus starten.
Mehr zu AWS-Diensten: https://voge.ly/vglIkeV/
Autor: Michael Matzer
22 / DATA STORAGE / AWS
BILD: FREI LIZENZIERT
Canvio Basics
Noch einfacheres Speichern
• 2,5“ExterneFestplatte
• MattesFinish
• SuperSpeedUSB3.2Gen1Anschluss
• StromversorgungperUSB-Anschluss
Die neue Toshiba Canvio Basics Jetzt bei BAB!
Mit SuperSpeed USB 3.2 Gen 1-Technologie lassen sich bis zu 4 TB an Daten ultraschnell auf die externen Festpla en der Canvio Basics-Reihe übertragen. Diese Geräte sind auf Microso Windows ausgelegt und erfordern daher bei Windows-Geräten keine So wareinstalla on – Du kannst also sofort mit dem Sichern Deiner wich gsten Dateien beginnen. Ob am Schreib sch oder unterwegs, das zeitlose Design mit ma em Finish sieht einfach immer gut aus. Dank Kompa bilität mit USB 2.0 kannst Du auch ältere Hardware problemlos anschließen.
Ein Platz für all Deine Dateien
Viel Speicherplatz in einem prak schen, kompakten, ma schwarzen Gehäuse. Die mit verschiedenen Speicherkapazitäten (bis zu 4 TB) erhältliche Festpla e Canvio Basics ist das perfekte Speichermedium für Daten, Musik, Filme und Bilder. Diese Geräte werden über USB mit Strom versorgt – mehr als ein USB-Kabel musst Du also nicht an Deinem PC oder Notebook anschließen.
BAB - Dein Toshiba Distributor
BAB Distribu on GmbH Zeißstraße 10, 32584 Löhne Tel. +49 (0) 57 32. 68 55 9 -70 Fax +49 (0) 57 32. 68 55 9 -90 www.bab-distribu on.de vertrieb@bab-distribu on.de
DISTRI AWARD 20 21 GOLD KOMPONENTEN DISTRI AWARD 20 22 GOLD KOMPONENTEN DISTRI AWARD 20 20 PLAT IN KOMPONENTEN DISTRI AWARD 20 22 GOLD HEIMVERNETZUNG & SMART HOME DISTRI AWARD 20 23 GOLD KOMPONENTEN DISTRI AWARD 20 23 GOLD HEIMVERNETZUNG & SMART HOME
EU Data Act: Welche Rolle spielen IT-Dienstleister?
Mit dem Data Act will die EU den Zugang zu bislang ungenutzten Datenschätzen erleichtern. Das Gesetzeswerk geht über den Wirkungsbereich der DSGVO weit hinaus – und es geht darin um viel mehr als um Datenschutz.
Daten werden heutzutage vielfach als „Rohstoff der Zukunft“ gehandelt. In ihnen schlummert ein in seinem vollen Ausmaß längst nicht abschätzbares Potenzial, nicht zuletzt auch in wirtschaftlicher Hinsicht. Dem Data Act der Europäischen Union soll nach seinem ersten Entwurf (DA-E) die Aufgabe zukommen, einen fairen Datenzugang sowie die Nutzung von Datenmassen sicherzustellen, die im Internet of Things (IoT) generiert werden. Mit diesem Gesetzeswerk erhofft sich die EU unter anderem einen Innovationsschub, höhere Produktivität, wettbewerbsorientiertere Märkte und Verbesserungen im Gesundheitssektor.
Der Europäische Rat hat am 24. Januar 2023 bereits einen vierten Kompromissvorschlag vorgelegt. Aufgrund der Komplexität und Bedeutung des Data Acts ist mit einem Inkrafttreten der Verordnung voraussichtlich erst im Jahr 2024 zu rechnen. Nach seinem Inkrafttreten gilt eine Umsetzungsfrist von zwölf Monaten. Die Vorschriften der Datenschutzgrundverordnung (DSGVO) bleiben – nach eindeutiger Regelung im
DA-E – unberührt. Allerdings findet der DA-E auf personenbezogene Daten gleichermaßen Anwendung wie auf nicht-personenbezogene Daten und hat deshalb einen deutlich weiteren Anwendungsbereich als die DSGVO. Anders als die DSGVO, welche maßgeblich dem Schutz von personenbezogenen Daten dient, liegt der Fokus des Data Acts darauf, Datensätze in ein markttaugliches Wirtschaftsgut umzuwandeln und möglichst viele Akteure durch Datenzugangsrechte an der Wertschöpfung teilhaben zu lassen. Der Data Act ist –im Zusammenspiel mit dem bereits im Juni 2022 in Kraft getretenen Data Governance Act – ein Baustein des sich im Entstehen befindenden „Datenwirtschaftsrechts“. Der Data Act findet nur bei IoT-Daten Anwendung, also solche Daten, die durch die Nutzung vernetzter Produkte (z.B. vernetzte Fahrzeuge, Haushaltsgeräte und Konsumgüter) generiert werden.
IT-Systemhäuser und -Serviceanbieter (nf. zusammengefasst unter „IT-Systemhäuser“) könnten in folgenden Anwendungsfälle betroffen sein:
BILD: NOAH9000 - STOCK.ADOBE.COM 24 / DATA STORAGE / Data Act
• Datenverarbeitungsdienst: Dies sind alle digitalen Dienste, die eine On-DemandVerwaltung bereitstellen sowie einen breiten Fernzugriff auf einen skalierbaren und elastischen Pool gemeinsam nutzbarer, zentralisierter oder verteilter Rechenressourcen ermöglichen. Dies betrifft vor allem IT-Systemhäuser, die Cloud- und Edge-Dienste anbieten.
• Dateninhaber oder Datenempfänger: „Dateninhaber“ sind natürliche oder juristische Personen, die berechtigt oder verpflichtet sind, bestimmte Daten zur Verfügung zu stellen oder die aufgrund der Kontrolle über die technische Ausgestaltung einen Datenzugang ermöglichen können. Demgegenüber sind „Datenempfänger“ juristische oder natürliche Personen, denen bestimmte Daten zu geschäftlichen Zwecken auf Verlangen des Nutzers von dem Dateninhaber bereitgestellt werden. Beispiel 1: IT-Systemhäuser können Dateninhaber sein, wenn sie Speicherkonzepte oder -systeme anbieten (Data-as-a-Service –DaaS), im Rahmen derer sie einen faktischen Zugang zu IoT-Daten haben oder ermöglichen können. Dies ist vorstellbar im Falle der Bereitstellung von Serverkapazitäten für die Datenspeicherung eines Herstellers von IoT-Produkten. Beispiel 2: Eine Stellung als Datenempfänger ist möglich, wenn der Nutzer eines IoT-Produktes die Übertragung seiner IoT-Daten von den Servern eines DaaS-Anbieters auf einen anderen begehrt.
• Hersteller: IT-Systemhäuser sind aufgrund ihrer Funktion als Vertriebskanal in den seltensten Fällen selbst Hersteller von IoT-Produkten, sodass etwaige herstellerspezifische Anforderungen des DA-E kaum relevant sein werden.
Für Datenverarbeitungsdienste sowie Betreiber von Datenräumen sieht der DA-E die zwingende Anwendung einheitlicher Interoperabilitätsspezifikationen und -normen vor. Dies soll zukünftig einen Anbieterwechsel auf der Ebene von Platform-as-a-Service und Software-as-a-Service erleichtern. Durch den DA-E sollen Datenverarbeitungsdienste außerdem da-
zu verpflichtet werden, einen Anbieterwechsel ihrer Kunden zu unterstützen und, soweit technisch möglich, auch abzuschließen. Zudem ist während des Wechselprozesses die uneingeschränkte Kontinuität bei der Erbringung der jeweiligen Funktionen oder Dienste zu gewährleisten.
Soweit Nutzer von IoT-Produkten nicht direkt auf die generierten Daten zugreifen können, sind diese auf Anfrage dem Nutzer selbst oder ggf. dritten Datenempfängern durch den Dateninhaber kontinuierlich und in Echtzeit zur Verfügung zu stellen. IT-Systemhäuser könnten damit künftig zur Bereitstellung von IoT-Daten verpflichtet oder umgekehrt zu deren Empfang berechtigt werden. Die Bereitstellungspflichten des Dateninhabers finden nach dem DA-E keine Anwendung auf Unternehmen, die als Kleinst- oder Kleinunternehmen zu qualifizieren sind.
Die bereichsübergreifende Angleichung europäischer Datenräume facht den Wettbewerb unter konkurrierenden Unternehmen im Bereich der IT-Dienstleistung an. Einerseits sind Anbieter von Cloud- und Edge-Diensten in Zukunft nicht mehr durch die „Scheu“ ihrer Kunden vor einem (kosten-) aufwendigen Anbieterwechsel geschützt. Andererseits eröffnet sich so für IT-Systemhäuser die Möglichkeit, neue Kunden mit innovativen Dienstleistungsmodellen zu gewinnen. Gleichzeitig sollten betroffene IT-Systemhäuser ihr Compliance-Management-System rechtzeitig an die neuen Bestimmungen des DA-E anpassen. Dies auch vor dem Hintergrund, dass bei Verstößen gegen die auferlegten Pflichten hohe Bußgelder drohen, die denjenigen der DSGVO entsprechen. Demgegenüber erhalten IT-Systemhäuser in ihrer Eigenschaft als Datenempfänger unter Umständen Zugang zu bisher nicht erschlossenen Datensätzen und können auf dieser Grundlage neue Geschäftsmodelle entwickeln. Insbesondere für Hersteller von IoTProdukten dürften kleinere lokale IT-Serviceanbieter erheblich an Attraktivität gewinnen, da die Anbieter zentraler Kernplattformdienste (sog. Gatekeeper) nach den Vorgaben des DA-E als Datenempfänger ausgeschlossen werden sollen.
Stephanie Richter, LL.M., ist Anwältin bei Taylor Wessing und Mitglied der Praxisgruppe Technology, Media & Telecoms. Ihre Beratungsschwerpunkte liegen im Datenschutzund IT-Vertragsrecht.
Dr. Axel Freiherr von dem Bussche ist Partner und Fachanwalt für Informationstechnologierecht in der Praxisgruppe Technology, Media & Telecoms bei Taylor Wessing. Er begleitet Mandanten in nationalen und internationalen Datenschutzprojekten und ist IT-Rechts- und DSGVO-Experte.
Data Act / DATA STORAGE / 25
BILD: TAYLOR WESSING PARTNERSCHAFTSGESELLSCHAFT MBH
BILD: TAYLOR WESSING PARTNERSCHAFTSGESELLSCHAFT MBH
DIE AUTOREN
Höher, schneller, weiter: Trends bei SSDs und HDDs
Beim Kapazitätswachstum geben SSDs mit neue Technologien das Tempo vor.
Aber auch HDDs legen zu, um mit der Datenflut Schritt zu halten, etwa mit HAMR. Bei den Interface-Technologien sorgt PCIe Gen5 für Tempo.
Langfristig steigt der Bedarf an Massenspeichern für Datacenter immer weiter. Die fortschreitende Digitalisierung in Unternehmen und öffentlicher Verwaltung sowie Anwendungen wie KI-Modelle mit enormen Datenmengen sind hier die Treiber. Um Platz und Energiebedarf der Rechenzentren im Zaum zu halten, muss die Kapazität der Massenspeicher weiter steigen.
Bei SSDs auf NAND-Basis gibt es zwei Entwicklungsrichtungen, die zu größeren Speicherdichten führen: mehr Bits pro Speicherzelle und zusätzliche Layer bei 3D-NAND. Im August 2021 präsentierte das SK-Hynix-Tochterunternehmen Solidigm einen Prototypen einer SSD mit PLCNAND (Penta Level Cell). Dabei werden in einer Speicherzelle fünf Bits an Informationen gespeichert. Dafür muss die Zelle 32 verschiedene Ladungsniveaus unterstützen, doppelt so viele wie beim derzeit gebräuchlichen QLC-NAND (Quad Level Cell). Die aus der Intel-SSD-Sparte entstandene Firma nutzt Speicherzellen mit FloatingGate-Design (FG), während die meisten Hersteller bisher auf Charge Trap Flash (CTF) setzen. Intel stellt zwar selbst kein NAND-Flash mehr her, forscht aber trotzdem weiter. Auf der ISSCC 2023
Ende Februar hat das Unternehmen laut einem Bericht von IEEE Spectrum einen 3D-PLC-NANDFlash-Chip mit FG-Design und 192 Layern vorgestellt, der mit 23 Gigabit pro mm2 einen neuen Rekord bei der Speicherdichte aufstellt. Kioxia arbeitet für PLC ebenfalls mit der FG-Technik und entwickelt Zellen mit halbkreisförmigen 3D-SplitGate-Zellen, die kleiner und einfacher zu programmieren sein sollen als die bisher üblichen Zellen mit kreisförmigem Gate.
Ein Problem bei PLC-NAND stellt die gegenüber QLC noch weiter sinkende Haltbarkeit und Leistung dar. Intel will zumindest die Performance beim Lesen durch spezielle Algorithmen verbessert haben. Eine sehr hohe Leistung bei gleichzeitig hoher Speicherdichte soll dagegen der TLC3D-NAND mit mehr als 300 Layern liefern, den SK Hynix ebenfalls auf der ISSCC 2023 präsentiert hat. Die Speicherdichte liegt hier bei 20 Gbit/ mm2, die Performance soll gegenüber der vorhergehenden Generation um 18 Prozent höher liegen. Neben SK Hynix arbeiten alle NAND-Hersteller an Produkten mit mindestens 300 Layern. Samsung will bis 2030 sogar die 1.000-Layer-Marke erreichen. Allerdings steigt mit den zusätzli-
26 / DATA STORAGE / Technologie
BILD: KARRRTINKI - STOCK.ADOBE.COM
chen Layern die Komplexität der Chips und damit die Produktionskosten. Für höhere Datenraten ist neben schnellem NAND-Flash vor allem ein schnelles Interface notwendig. Hier bringt PCIExpress Gen5 weiteren Leistungssprung während NVMe 2.0 für niedrigere Latenzen und ein einfacheres Management sorgt.
Während HDDs im Client-Sektor und vor allem bei Mobilgeräten eine aussterbende Gattung sind, stellen sie im Datacenter immer noch den Großteil der Massenspeicher. So gehen laut Seagate immer noch 89 Prozent des Speichervolumens bei den Hyperscalern auf das Konto herkömmlicher Festplatten. Colin Presly, Senior Director im CTOOffice des Herstellers, geht davon aus, dass HDDs dort schon aus Kostengründen weiter eine wichtige Rolle spielen werden. Als Mittel zur Kapazitätssteigerung arbeitet Seagate bereits seit geraumer Zeit an der HAMR-Technik (Heat Assisted Magnetic Recording) mit einem Laser zur Beein-
Der Supermicro SSG-221E-NE324R zählt zu den ersten Storage-Servern für PCIe-Gen5-SSDs. Er fasst bis zu 24 SSDs im E1.S-Formfaktor.
flussung der Magnetschicht auf den Plattern. Nun endlich sind die ersten HAMR-Platten serienreif, da die Hersteller ein bisher bestehendes Hitzeproblem beim Near-Field-Transducer gelöst haben, das bisher die Lebensdauer der Geräte stark eingeschränkt hätte. Produziert werden in einem ersten Schritt 30-TB-HDDs, die allerdings zunächst an Cloud-Provider gehen und später den Partnern zur Verfügung stehen. Laut Presly laufen in den Seagate-Laboren bereits 50-TB-Prototypen, an noch höheren Kapazitäten wird gearbeitet.
Western Digital hat mit der Kombination aus ePMR (Energy-enhanced Perpendicular Magnetic Recording) und OptiNAND für Metadaten bereits jetzt SMR-HDDs mit 26 TB im Portfolio. Bei Western Digital will man auch ohne HAMR oder MAMR die Kapazität noch weiter steigern und wird diese Technologien erst später einsetzen. MAMR (Microwave Assisted Magnetic Recording) wird derzeit primär von Toshiba vorangetrieben. Momentan nutzt der Hersteller allerdings mit Flux Control MAMR noch einen Zwischenschritt, arbeitet mit MAS-MAMR (Microwave Assisted Switching) an der nächsten Stufe.
Mehr unter: https://voge.ly/vglTJW5/
Autor: Klaus Länger
NVM e UND DREHENDE FESTPLATTEN: KONZEPTE UND LÖSUNGEN
Im NVMe-2.0-Standard hat die Unterstützung von HDDs Einzug gehalten. Von der Leistung her ist das nicht notwendig, hier reicht SAS selbst für die schnellsten Dual-Aktuator-Platten mit 550 MB/s leicht aus. Vielmehr geht es um ein einfacheres Management. Daher reicht eine PCIe-Lane für eine HDD aus und auch der physikalische Anschluss soll sich nicht ändern, erklärt Colin Presly von Seagate. Wichtig sei die Einführung von NVMe für die Vereinfachung des Software-Stacks und vor allem für das Composable Datacenter mit disaggregierter Infrastruktur. Für eine höhere Datendichte und Performance sollen künftig auch bei HDDs Deduplizierung und Kompression sorgen.
Bei Western Digital sieht man NVMe bei HDDs auf Device-Ebene dagegen nicht als notwendig an, so Manfred Berger, Senior Manager Business Development Platforms EMEAI bei Western Digital. Stattdessen favorisiert sein Unternehmen Lösungen auf Box-Ebene mit vielen SATA- oder SAS-Platten, die dann über NVMe-oF mit einem Host verbunden sind.
Eine wichtige Entwicklung für die Composable Infrastucture generell ist für Berger der von WD entwickelte NVMe-oF-ASIC Rapidflex A1000, der die Entwicklung von über Ethernet angebundenen Storage-Systemen durch die Entkopplung vom Host-Betriebssystem stark vereinfachen soll.
28 / DATA STORAGE / Technologie
BILD:SUPERMICRO
tägliche Newsletter Page Impressions * IVW IV/22 * IVW Online 2022 * Stand: 24.01 2023 * Nettoempfänger Newsletterversand 24.01.2023 (IT-BUSINESS Today), tägliche Newsletter ohne Sondernewsletter 5.338.027 Social Media a aloci l Me 14.222 15.243 9.314 7.022 1.714 47.515 NettoempfängerNewsletterversand24012023(ITBUSINESSToday) Verbreitung ePaper 24.013 GESAMT GESAMT 46.164 25.856 V PRINT 22.151 Bil d: © R awf 8st k ock ad .ad obe ob .co m / [M ] U do Sch erl n LET´S RACE TOGETHER TO POLE POSITION MEHR REICHWEITE UND MEHR ERFOLG FÜR SIE.
Steintafeln der Neuzeit
Wer sicherstellen will, dass Informationen auch noch in Jahren zur Verfügung stehen, muss Möglichkeiten finden, gegen den Zahn der Zeit anzukommen und braucht zudem ein Dateiformat, das „vorwärtskompatibel“ ist.
Einer 5.000 Jahre alten Steintafel, die im Besitz des British Museum in London ist, kann immer noch die Information entnommen werden, dass mesopotamische Arbeiter mit Bier bezahlt wurden. Die Rede ist vom „ältesten Gehaltsscheck“ der Welt aus dem Jahr 3000 v. Chr.
Was die Langzeitarchivierung angeht, haben die Nutzer von Steintafeln und Keilschrift vieles richtig gemacht. Das Material überdauerte die Jahrtausende und die Informationen sind immer noch auslesbar. Dass beides keine Selbstverständlichkeit ist, weiß jeder Nutzer, der auf dem Speicher eine Kiste mit alten Disketten gefunden hat und sich fragt, was darauf gespeichert ist? Alte Bewerbungen? Liebesbriefe? Das nie fertiggestellte Buch? Nicht nur, dass die Daten auf den Disketten nach so langer Zeit mit einer mehr oder weniger großen Wahrscheinlichkeit beschädigt sind –es fehlt an Hardware sowie an Programmen zum Öffnen der Dateien und selbst wenn dies alles aufzutreiben wäre, fehlen womöglich die eingebetteten Schriften der alten Datei, die auf dem Rechner nicht mehr vorhanden ist.
Dateiformate für die Langzeitarchivierung müssen sozusagen „vorwärtskompatibel“ angelegt sein. Das Dokumentenformat PDF/A ist der wohl verbreitetste Standard, der sicherstellt, dass die Dokumente ohne Kompatibilitätsprobleme auch in ferner Zukunft geöffnet werden können (siehe Kasten). Es wurde von der International Organization for Standardization (ISO) als Teilmenge des Portable Document Format (PDF) genormt. Dabei handelt es sich um einen ISO-Standard (ISO 19005) für die Langzeitarchivierung von elektronischen Dokumenten, bei dem im Gegensatz zu regulären PDF-Dokumenten bestimmte Funktionalitäten und Inhalte beschränkt werden, um sicherzustellen, dass die Dokumente auch in Zukunft lesbar bleiben. Ein zentraler Punkt dabei ist, dass das Dokument keine Referenzen auf Ressourcen vornehmen darf, die nicht in der Datei selbst enthalten sind, beispielsweise auf StandardSchriftarten, die „reingeladen“ werden müssen, wie oft üblich. Alle verwendeten Schriftarten müssen in das Dokument selbst eingebettet sein, und brauchen daher nicht auf den zukünftigen Devices installiert sein. Das Format PDF/A-2U geht noch
30 / DATA STORAGE / Langzeitarchivierung
BILD:
-
ANDY SHELL
STOCK.ADOBE.COM
Die Langzeitarchivierung beschäftigt sich damit, wie man Informationen über mehr oder weniger lange Zeiträume hinweg auslesbar hält.
einen Schritt weiter. Hier wird der Text des Dokumentes zusätzlich in Unicode-Textsemantik abgebildet und in das Dokument eingebettet, um ganz sicher sein zu können, dass es auch in Zukunft auslesbar sein wird.
Naturgemäß ist dieses Dateiformat nicht darauf ausgelegt, besonders innovativ oder gar „fancy“ zu sein, dennoch wird es weiterentwi ckelt, wobei viele Langzeitarchivare bei der ersten Version bleiben, nämlich PDF/A-1. Es ist für die Langzeitarchivierung von einfachen Dokumen ten wie Texten, Tabellen und Diagrammen geeig net, was in der Regel dazu reicht, Informationen in die Zukunft zu transportieren.
Die Version PDF/A-2 wurde 2011 veröffentlicht und erweitert die Funktionalität von PDF/A-1 dahingehend, dass das Format die Verwendung von (eingebetteten) mehrfarbigen Bildern und interaktiven Elementen ermöglicht. PDF/A-3 ist die jüngste Version des Standards, wurde 2012 als Ergänzung veröffentlicht und ermöglicht die Archivierung von Dokumenten, die aus anderen Dokumenten zusammengesetzt sind, sowie die Verwendung von Schaltflächen, Formularen und digitalen Signaturen.
Ist das Dateiformat geklärt, stellt sich die Frage nach einer Speicherstrategie und einem sicheren Aufbewahrungsort um gegen die Zeit zu punkten. Ein Teil der Strategie können Spezialfirmen wie
Iron Mountain sein. Die Firma hat in Boyers, Pennsylvania, USA einen alten Luftschutzbunker umfunktioniert. Hinter einer 750 Kilogramm schweren Stahltür, einem Schleusensystem mit Gesichtsfeldscannern, kann man dort hinter 1,40 Meter dicken Stahlbetonwänden langzeitarchivieren. Ein Thermostat sorgt für gleichbleibende Temperaturen, beispielsweise für Akten exakt 18 Grad Celsius. Im Falle eines Brandes, wird mit Argongas gelöscht, denn Wasser könnte Tapes und Akten zerstören.
Die Sumerer haben Informationen in Keilschrift auf Steintafeln durch die Jahrtausende gebracht. Elektronische Speichermedien machen die Angelegenheit komplizierter.
Autor: Dr. Stefan Riedl
KEINE ABWEGIGE VORSTELLUNG: PDF/A-DATEIEN KÖNNEN NOCH IN WEIT MEHR ALS 100 JAHREN GEÖFFNET WERDEN
Langzeitarchivierung ist in allen Bereichen ein Thema, in denen elektronische Dokumente auch nach vielen Jahren noch lesbar sein müssen. Das können beispielsweise Versicherungsakten sein oder Kreditunterlagen. Die Laufzeiten von Versicherungen betragen nicht selten 60 Jahre und mehr. Kredite laufen oft über 30 Jahre. Im Bereich Engineering sind Hersteller mitunter per Gesetz dazu verpflichtet, ihre Konstruktionsunterlagen 99 Jahre zu archivieren, was beispielsweise Baupläne
zu Brücken oder Flugzeugen angeht. Wer soll in der äußerst schnelllebigen IT-Welt gewährleisten, dass nach so langer Zeit die elektronischen Dokumente wieder geöffnet werden können? Die Antwort lautet: ein extra dafür konzipierter ISO-Standard. Mit PDF/A ist sichergestellt, dass es auch im Jahr 2122 keine Formatprobleme gibt. Die Vorstellung, dass Chefingenieur Scotty auf der Enterprise einen uralten Konstruktionsplan im PDF/A-Format öffnet, ist nicht unbedingt besonders abwegig.
Langzeitarchivierung / DATA STORAGE / 31
BILD: APRIL - STO CK ADOBE COM
Wohin mit den Daten? Speicherlösungen für KMU
Mit zunehmender Digitalisierung stellt sich für Soloselbständige, kleine Handwerksbetriebe oder solide Mittelständler immer öfter die Frage, wo die Daten sicher sind: in der Cloud oder auf lokalen Speichern?
Weltweite Datenmengen nehmen stetig zu: So belief sich laut IDC die 2020 generierte Datenmenge auf 64,1 Zettabyte und in zwei Jahren schon sollen es 181 Zettabytes sein. Zwar wird ein Großteil dieser Datenflut auf den starken Zuwachs vernetzter Geräte entfallen, doch werden auch dank der fortschreitenden Digitalisierung in SOHOs (Small Office / Homeoffice) und KMU immer mehr Daten generiert. Die Daten sicher aufzubewahren und zu nutzen, wird also immer mehr eine Herausforderung, unabhängig von der Betriebsgröße. Während größere Unternehmen schon lange auf die Cloud setzen, speichern Freiberufler oder Handwerksbetriebe ihre Daten häufig lieber lokal. Zugegebenermaßen haben beide Methoden sowohl Vor- als auch Nachteile und die Entscheidung für die Cloud oder für ein Network Attached Storage System (NAS) in den eigenen Büroräumen, ist sicher nicht leicht. Hilfe und Beratung dazu bieten Systemhäuser (siehe S. 14) oder auch die Webseiten von NAS-Herstellern.
Gerade für Soloselbständige und kleine Unternehmen bieten NAS-Systeme Vorteile, zum Beispiel wenn ein Influencer laufend Videos produziert und schnell darauf zugreifen will. Schließlich
trumpfen NAS-Geräte mit schnellen Zugriffszeiten und hoher Bandbreite, da selbst die schnellste Internetverbindung nicht mit einem 10-Gigabit-Ethernet-Anschluss des NAS konkurrieren kann. Denkbar sind natürlich auch die unterschiedlichsten hybride Modelle. Zu den Vorteilen der Cloud gehören Flexibilität und Sicherheit. Allerdings hat nach einer Umfrage vom Bitkom über die Hälfte der befragten Handwerksbetriebe Angst vor dem Verlust der Datenhoheit (59 %).
Mehr Sicherheit für Skeptiker gibt es dabei zweifellos bei Cloud-Anbietern, bei denen die Daten DSGVO-konform in Europa oder gar deutschen Rechenzentren gesichert werden. Statt also seine Daten einem Hyperscaler anzuvertrauen, bietet es sich für KMU an, alternative Lösungen von Anbietern wie Ionos, Schwarz IT (die Lidl-Cloud mit Stackit) oder Exoscale in Betracht zu ziehen. In der Regel ähneln die Services jenen der Hyperscaler und die Abo-Modelle sind so gestaltet, dass Unternehmen nur für den Speicher bezahlen, den sie auch tatsächlich nutzen. Sie bleiben agil und können schnell auf Veränderungen reagieren. Wichtig sind Cloud-Speicher darüber hinaus, um Daten redundant vorzuhalten. Zwar erstellen
32 / DATA STORAGE / Storage für KMU
BILD:
- STOCK.ADOBE.COM
MIHA CREATIVE
Mit der DiskStation DS223 bringt Synology ein kompaktes NAS-System für SOHO auf den Markt.
NAS-Geräte Backups der dort gesicherten Daten, doch sollten nach Möglichkeit Sicherungskopien an einer weiteren Stelle aufbewahrt werden.
Gegen Cyberangriffe, Ransomware und Datenverlust gesichert sind auch NAS-Geräte. Schließlich integrieren Hersteller wie Synology oder Qnap in die NAS-Systeme verschiedene RAID-Level, um auch bei den Speicher-Lösungen vor Ort maximale Sicherheit und Redundanz zu gewährleisten. In anspruchsvolleren NAS-Geräten sind die verbauten Festplatten – unabhängig davon, ob es sich dabei um HDDs oder schnellere SSDs handelt –in logische, redundante Speichereinheiten, RAIDArrays, strukturiert. Über die passende Verwaltungssoftware lassen sich Daten auf einem NAS redundant speichern und bei Bedarf wieder herstellen.
Synology hat mit der DiskStation DS223 ein kompaktes NAS-System für Privatanwender, SOHO oder kleine Unternehmen präsentiert. Herzstück der DiskStation DS223 ist eine Realtek-RTD1619BCPU mit vier Kernen und 1,7 Gigahertz Taktfrequenz sowie einer Hardware-VerschlüsselungsEngine. Als Arbeitsspeicher sind 2 GB DDR4-RAM an Bord, die sich allerdings nicht weiter aufrüsten lassen. In den beiden Einschüben finden SATAFestplatten oder -SSDs im 2,5- und 3,5-Zoll-Formfaktor Platz. Hot-Swap wird unterstützt. Dazu gibt es drei USB-3.2-Gen1-Ports und für den Anschluss an ein Netzwerk verfügt die DS223 über eine Gigabit-Ethernet-Schnittstelle. Das kompakte NAS
Qnap hat den TS-1655 Hybrid-Speicher mit hoher Kapazität, 2,5 GbE, und 8-Core-Intel-Prozessor vorgestellt.
unterstützt die Dateisysteme Btrfs und ext4. Externe Laufwerke werden zusätzlich in den Dateisystemen ext3, FAT32, NTFS, HFS+ und exFAT erkannt. Die Speichermedien lassen sich in den RAID-Modi Hybrid, Basic, JBoD, RAID 0 und RAID 1 betreiben. Zum Funktionsumfang zählen ferner eine Firewall, Verschlüsselung freigegebener Ordner, WindowsAD- und -LDAP-Integration sowie Anwendungen für Multimedia, Zusammenarbeit, Synchronisierung, Datensicherung und Videoüberwachung.
Etwas anspruchsvoller und leistungsfähiger ist die Hybrid-NAS TS-1655 des Speicherspezialisten Qnap. Eignen soll sie sich laut Hersteller vor allem für Datensicherung und Virtualisierung. Im Inneren arbeitet ein Atom-C5125-Prozessor von Intel. Er bietet acht Rechenkerne, verfügt über die Intel-QuickAssist-Technologie (QAT) und arbeitet mit einer Taktfrequenz von 2,8 GHz. Als Arbeitsspeicher ist ein 8-Gigabyte-DDR4-UDIMM installiert. In den vier Slots finden bei Bedarf bis zu 128 GB RAM Platz. Außerdem passen bis zu zwölf 3,5-Zoll-SATA-Festplatten und vier 2,5-ZollSATA-SSDs in der kompakte Gehäuse. Zusätzlich sind zwei Steckplätze für M.2-2280-NVMe-SSDs vorhanden. Anschluss findet das Speichersystem über zwei integrierte 2,5-Gigabit-Ethernet-Ports mit Port Trunking und vier USB-3.2-Gen1-Schnittstellen. Das NAS bietet laut Qnap sequenzielle Lesegeschwindigkeiten von bis zu 3.499 MB/s und beim Schreiben sind bis zu 2.465 MB/s möglich.
NAS-Geräte lohnen sich vor allem für kleinere Unternehmen, die schnell auf ihre Daten zugreifen wollen.
Autor: Margrit Lingner
Storage für KMU / DATA STORAGE / 33
BILD: SYNOLOGY
BILD: QNAP
Vogel IT-Medien GmbH
Max-Josef-Metzger-Straße 21, 86157 Augsburg Tel. 0821/2177-0, Fax 0821/2177-150
eMail: it-business@vogel.de www.it-business.de www.egovernment-computing.de
Geschäftsführer:
Werner Nieberle, Günter Schürger
Co-Publisher: Lilli Kos (-300), (verantwortlich für den Anzeigenteil)
Chefredaktion: Sylvia Lösel (sl)
Chef vom Dienst: Heidi Schuster (hs)
Chefreporter: Michael Hase (mh)
Leitender Redakteur: Dr. Stefan Riedl (sr)
Redaktion: Klaus Länger (kl), Margrit Lingner (ml), Barbara Miletic (bm)
Weitere Mitarbeiter dieser Ausgabe:
Axel Freiherr von dem Bussche, Michael Matzer, Stephanie Richter
Account Management:
Besa Agaj, Hannah Lamotte, Stephanie Steen
eMail: media@vogel.de
Anzeigendisposition:
Mihaela Mikolic (-204), Denise Falloni (-202)
Grafik & Layout: Johannes Rath, Carin Boehm, Udo Scherlin
Titelbild: aicandy - stock.adobe.com / [M] Udo
Scherlin
EBV: Carin Boehm
Anzeigen-Layout:
Carin Boehm, Udo Scherlin, Johannes Rath
Leserservice / Mitgliederbetreuung:
Sabine Assum (-194), Fax (-228)
eMail: vertrieb@vogel.de
Fragen zur Abonnement-Rechnung:
DataM-Services GmbH
97103 Würzburg
Tel.: 0931/4170-462 (Fax -494)
eMail: vogel-it@datam-services.de
Druck:
Vogel Druck- und Medienservice GmbH
Leibnizstr. 5
97204 Höchberg
Haftung: Für den Fall, dass Beiträge oder Informationen unzutreffend oder fehlerhaft sind, haftet der Verlag nur beim Nachweis grober Fahrlässigkeit. Für Beiträge, die namentlich gekennzeichnet sind, ist der jeweilige Autor verantwortlich.
Copyright: Vogel IT-Medien GmbH. Alle Rechte vorbehalten. Nachdruck, digitale Verwendung jeder Art, Vervielfältigung nur mit schriftlicher Genehmigung der Redaktion.
Manuskripte: Für unverlangt eingesandte Manuskripte wird keine Haftung übernommen. Sie werden nur zurückgesandt, wenn Rückporto beiliegt.
Der nächste Channel Guide „Managed Services“ erscheint am
Managed Services sind im ITK-Channel angekommen. Beim Gros der IT-Systemhäuser und -Dienstleister gehören sie inzwischen zum Leistungsportfolio. Auch Hersteller und Distributoren haben sich auf das Modell eingestellt und Programme dafür entwickelt. Und die Erlöse wachsen: Vor allem Cybersecurity und die Cloud treiben das MSP-Geschäft.
Vogel IT-Medien, Augsburg, ist eine 100prozentige Tochtergesellschaft der Vogel Communications Group, Würzburg, einem der führenden deutschen Fachinformationsanbieter mit 100+ Fachzeitschriften, 100+ Webportalen, 100+ Business-Events sowie zahlreichen mobilen Angeboten und internationalen Aktivitäten. Seit 1991 gibt Vogel IT-Medien Fachmedien für Entscheider heraus, die mit der Produktion, der Beschaffung oder dem Einsatz von Informationstechnologie beruflich befasst sind. Dabei bietet er neben Print- und Online-Medien auch ein breites Veranstaltungsportfolio an.
Die wichtigsten Angebote des Verlages sind IT-BUSINESS, eGovernment, Healthcare Digital, BigData-Insider, CloudComputing-Insider, DataCenter-Insider, Dev-Insider, IP-Insider, Security-Insider und Storage-Insider.
34 / DATA STORAGE / Rubriken
BAB Distribution GmbH 23 Cyber Power Systems GmbH 19 DELO Computer GmbH 36 IT-BUSINESS 29 Seagate Technology (Netherlands) BV (Germany Branch) 5 StorMagic 13 TD SYNNEX Germany GmbH & Co. OHG 9 TIM AG 2 Vogel IT-Akademie 35 Western Digital Deutschland GmbH 11 WORTMANN AG 27 Arcserve 12 AWS 22 Bitkom 32 Boyers 30 Check Point Research 14 Concat 14 Dell 6 Enterprise Strategy Group 20 Erik Sterck GmbH 14 Exoscale 32 Filecoin 18 Fujitsu 20 Gartner 12 Hornetsecurity 20 HPE 6 IDC 6, 32 Infinidat 6 Insights & Strategy 20 Intel 26 Ionos 32 Iron Mountain 30 Kioxia 26 Leil Storage 6 Lenovo 6 NetApp 6, 14 Pure Storage 6, 20 Qnap 32 Quantum 20 Qumolo 6 Roland Berger 12 Samsung 26 Scality 6 Schwarz IT 32 Seagate 6, 26 Solidigm 26 Synology 32 Taylor Wessing 24 Toshiba 12, 26 Vast Data 6 Weka 6 Western Digital 6, 26
Redaktionell erwähnte Unternehmen Firma Seite Firma Seite Firma Seite Firma Seite
8. Mai 2023.
Inserenten
BILD: KANNAPAT -
STOCK.ADOBE.COM
/ [M] UDO SCHERLIN
S aker-V s lä : -Je Bezos -W. Curtis Preston Apr 2024| ankfurt Du?! save the date! Top- emen: -Data & Backup Secur y - d Data Mana ment -S ra -Perf man und -E izienz -Dein V s lag EINE VERANSTALTUNG DER Gestalte die Agenda mit! Wir freuen uns auf Deine Themen | Best Practices | Referenzstories zur Agenda. �� Schicke einfach eine E-Mail an franziska.magai@vogel.de