Channel Guide 2024 DATA STORAGE

Page 1

APRIL 2024 ISSN 1864-0907

Jetzt

kostenfreies

Ticketsichern!

InformierenSiesichaufderTIMCONFERENCE u.a.überManaged-Services-,DataProtection-,ServerundStorage-LösungenvonDellTechnologies.

DassicherehybrideDataCenteristrealisierbarmitden richtigenTechnologienundPartnernanIhrerSeite.

www.tim-vad.com
TIM CONFERENCE 23.Mai2024|Wiesbaden

Nachhaltig in die Storage-Zukunft

Mehr als ein Yottabyte, also eine Milliarde Terabyte, könnte die weltweit produzierte und gespeicherte Datenmenge im Jahr 2030 umfassen, so Schätzungen von Analysten. Das zeigt, dass das explosive Datenwachstum ohne Pause weitergeht. Ein erheblicher Teil dieser Daten landet zwar in den großen Rechenzentren der Hyperscaler oder der Social-Media-Plattformen, denn 78 Prozent davon sind Consumer-Daten, aber auch der ITChannel wird davon profitieren. Denn auch Firmen haben den Wert ihrer Daten entdeckt und nutzen ihn für Analysen oder künftig für das Training oder die Verfeinerung von KI-Modellen. Das wird für Wachstum im Storage-Markt sorgen, da der Trend auch hier auf hybride Modelle zeigt.

Security ist ein weiteres Feld, von dem der ITChannel profitieren kann. Denn wertvolle Daten müssen geschützt werden, aus Eigennutz der Unternehmen und auch weil es der Gesetzgeber fordert – Stichwort NIS2. Sichere Storage-Systeme für Nutzdaten oder Backups stellen hier eine weitere Verteidigungslinie dar, wenn digitale Angriffe vorgelagerte Barrieren überwunden haben.

Nachhaltigkeit ist schließlich ein weiteres Thema, mit dem sich der Channel auch beim Storage befassen muss. Denn Energie ist teuer und Ressourcen sind endlich. Daher muss das Datenwachstum bewältigt werden, ohne dass massenhaft neue Rechenzentren entstehen und der Stromverbrauch der IT-Infrastrukturen ins Unermessliche wächst.

Ich wünsche Ihnen eine aufschlussreiche Lektüre!

BILD: STEVEANDFRIENDSTOCK.ADOBE.COM
Klaus Länger, Redakteur IT-BUSINESS
klaus.laenger@vogel.de

Storage: clever, sicher und nachhaltig

Der Absatz von Storage-Systemen ist für den IT-Channel immer noch kein einfaches Thema. Die wachsende Nutzung von KI-Anwendungen im Datacenter soll aber wieder für Wachstum sorgen. Security und Nachhaltigkeit sind weitere wichtige Themen. 6

Es muss nicht immer die Cloud sein Diese pfiffigen NAS-Lösungen hält der Storage-Markt bereit.

Ein Berg von Daten, ein Berg an Arbeit?

Wie sich Dienstleister im Storage-Umfeld profitabel aufstellen können. 26

Wie kann KI im Storage-Umfeld helfen?

Wie setzen Hersteller KI bereits ein? Und: Was ist noch alles möglich?

Die Distribution verzeichnet eine hohe StorageNachfrage. KI und Security sind Treiber dafür.

Ein Berg von Daten, ein Berg an Arbeit?

Es muss nicht immer ChatGPT sein. KI-Tools gibt es viele und viele werden bereits sinnvoll eingesetzt.

4 / DATA STORAGE / Inhalt
KI und Security als Storage-Booster 6 Speicher für KI-Anwendungen und der Schutz der Daten sind derzeit Themen, die den Storage-Markt befeuern. Vertragen sich Storage und Security? 10 Storage-Anbieter integrieren Security immer mehr ins Portfolio. Macht das den Security-Herstellern Angst? Der Storage-Markt in Zahlen 12 Das Datenwachstum geht weiter steil nach oben, das ist nicht überall so im Storage-Markt. NAS-Speicher 14 Anbieter wie Synology, Dell, Pure Storage, Western Digital und IBM bieten dem Channel Optionen. Ist meine Datensicherung auch NIS2-konform? 18 Die Daten zuverlässig zu sichern, ist die eine Sache. Nun kommt die Gesetzesebene dazu. HAMR und Flash: Mehr Kapazität für Speicher 20 Mit HAMR können Festplatten weiter zulegen, SSDs speichern durch zusätzliche Layer mehr Daten. Nachhaltigkeit bei Storage-Systemen 22 Steigende Speichergrößen und clevere Software sorgen für weniger Energie- und Ressourcenverbrauch. Starkes
24
Data & Storage CHANNEL GUIDE
Interesse dank steigendem Bedarf
26
Datenschutz, Disaster Recovery, Analysemöglichkeiten: Wie können Dienstleister bei Storage punkten?
30
Ein Tool namens KI
34
Impressum
14
30

Warum NVMe™?

NVMe™-SSDs haben mit bis zu 13 Mal höheren Lesegeschwindigkeiten einen massiven Leistungsvorsprung gegenüber SATA-Festplatten, da die SATA-Schnittstelle und -Protokolle noch auf HDDTechnologie basiert.

Die Installationsbasis von älteren Festplatten mit weniger Speicherplatz reicht bis 2013 zurück und bietet daher ein erhebliches Potenzial für Hardwareaufrüstungen.

WD_BLACK™ Hochleistungsspeicher für anspruchsvolles Gaming.

Warum Western Digital NVMe

Western Digital ist globaler Marktführer für Speichertechnologien mit über 30 Jahren Erfahrung im Bereich der Flash-Technologie. Als Partner der weltgrößtenFertigungsstättefürFlash-Speichersind wir Ihre Marke des Vertrauens in Sachen SSDs. Unser leicht verständliches Farbportfolio ermöglicht eineschnelleAuswahlderbestenSSDfürIhreZwecke. Nähere Informationen finden Sie unter: westerndigital.com/discoveryourdrive

WD Blue® Ideal für Content-Creator und und kreative Profis.

WD Red® Beschleunigter Zugriff und schnelles Caching für NAS.

©2024 Western Digital Corporation und Tochterunternehmen. Alle Rechte vorbehalten.

WD Green® Geschwindigkeits Upgrade für alltägliche PC-Nutzung.

Produktdaten ohne Vorankündigung vorbehalten. Die gezeigten Bilder können vom tatsächlichen Produkt leicht abweichen.

Western Digital, das Logo von Western Digital, WD_BLACK und das Logo von WD_BLACK sind eingetragene Marken oder Marken der Western Digital Corporation oder ihrer Tochterunternehmen in den USA und/oder anderen Ländern. NVMe ist eine Marke von NVM Express, Inc. PCIe ist eine eingetragene Marke und/oder Servicemarke von PCI-SIG in den USA und/oder anderen Ländern. Windows ist eine Marke der Microsoft Corporation. Alle anderen Marken sind Eigentum ihrer jeweiligen
Inhaber. Änderungen der technischen
?
?
Brauchen Sie NVMe™
Vertrauen Sie auf Western Digital®

Aufschwung mit KI, Security und Green-IT

Der KI-Boom soll auch den Storage-Anbietern steigende Absatzzahlen bescheren. Weitere Themen für die Branche sind der Schutz gegen digitale Angriffe, VMware, Container sowie das Streben nach mehr Nachhaltigkeit.

Um 2,1 Prozent ist 2023 der weltweite Markt für externe Enterprise-Storage-Systeme geschrumpft, so die Marktforscher von IDC in einer im März 2024 veröffentlichen Meldung. Allerdings erwarten die IDC-Auguren, dass es schon dieses Jahr wieder aufwärts gehen soll. Für die kommenden fünf Jahre sagen sie ein durchschnittliches Wachstum von 4,3 Prozent voraus. Als Treiber für diese Entwicklung nennen die Analysten die steigende Nachfrage nach Storage-Systemen für KI-Anwendungen. Nachdem in den vergangenen Jahren viel Geld in KI-Server geflossen ist und teilweise auch umgeschichtet wurde, realisieren laut IDC vor allem große Unternehmen, dass sie ihr Datenmanagement und die Storage-Infrastruktur ausbauen müssen, damit ihre KI-Workloads optimal laufen. Die Annahmen von IDC werden gestützt durch die höhere Nachfrage nach Storage-Medien wie Enterprise-SSDs und HDDs mit hoher Kapazität, die bereits zu steigenden Preisen bei den Herstellern führen. Das auf Taiwan beheimatete Marktforschungsunternehmen Trendforce zitiert einen Brief von Western Digital an US-amerikanische Partner, in dem bedingt durch eine starke Nachfrage und Probleme in der Lieferkette höhere Preise angekündigt werden. Das Erdbeben auf

Taiwan Anfang April hatte laut Trendforce allerdings nur minimale Auswirkungen auf die Produktion.

Das rapide Datenwachstum geht ungebremst weiter, da sind sich alle Marktforscher einig. Und die Künstliche Intelligenz hat einen großen Anteil daran. Denn die großen KI-Modelle haben einen enormen Bedarf an Trainingsdaten aller Art, der mit der Erstellung von Videos mittels GenAI noch steigen wird. Alle großen Cloud-Anbieter haben große Rechenzentren mit Unmengen an Servern mit KI-Beschleunigern im Bau oder in Planung. Und die wollen alle möglichst schnell mit Daten gefüttert werden. Daher kommen hochperformante Storage-Systeme mit SSDs zum Einsatz, die fähig sind, Daten mit sehr hoher Bandbreite zu liefern. Schließlich verfügen etwa die neuen Blackwell-B200- und B100-Tensor-Core-GPUs von Nvidia über 192 GB superschnellen HMBe3 – und in einem Server arbeiten acht dieser GPUs. Daher kooperieren Firmen wie NetApp und Pure Storage eng mit dem GPU-Hersteller und bieten mit schnellen SSDs ausgestattete Storage-Systeme für dessen DGX-Server an. „KI wird zum Dauerbrenner“, erklärt dazu die Pure-Storage-Deutschland-

6 / DATA STORAGE / Titelstory

Chefin Elke Steinegger. Aber natürlich haben auch Hersteller wie Dell, HPE oder Fujitsu passende Speicherlösungen für GPU-Server im Portfolio. Da bei vielen KI-Workloads die hybride Cloud als Basis dient, bieten sich natürlich auch entsprechende Storage-Lösungen an. Hier hat etwa Dell gerade erst die Software-definierte Cloud-Lösung

Apex File Storage for Microsoft Azure auf Basis von PowerScale OneFS angekündigt. Mit den AllFlash-Arrays PowerScale F210 und F710, die ebenfalls unter PowerScale OneFS laufen, bietet der Hersteller neue Systeme an, die anspruchsvolle File-Workloads für das Training und Tuning von KI-Modellen im lokalen Datacenter oder bei Service-Providern bewältigen sollen.

Neben Storage für KI gibt es auch KI für Storage. Sie soll das Management und den Schutz der Daten vereinfachen. Cohesity hat mit Gaia einen Suchassistenten vorgestellt, um mit generativer KI Backup-Daten in Cohesity-Umgebungen durchsuchbar zu machen. IBM und NetApp nutzen die Künstliche Intelligenz um Anomalien bei Zugriffen auf den Speicher schneller zu erkennen und so etwa Ransomware-Angriffe unterbinden, noch bevor große Datenmengen korrumpiert werden. Das begrenzt den Schaden und beschleunigt die Wiederherstellung. Bei NetApp nennt sich das „Autonomous Ransomware Protection with Artificial Intelligence“ (ARP/AI). Mit Hilfe der Modelle untersucht die Software Signale auf Dateiebene in Echtzeit und soll so auch bisher unbekannte Ransomware-Angriffe mit einer Erkennungsrate von über 99 Prozent identifizieren. ARP/AI soll in Kürze als Technologievorschau verfügbar sein. Bei IBM erhalten die Flash-System-Produkte ein Update, mit dem eine interne Erkennungssoftware und eine Cloud-basierte KI gemeinsam Anoma-

STORAGE-SERVER ZUM MITNEHMEN

Für Edge-Standorte mit schlechter Internetanbindung, an denen aber trotzdem große Datenmengen anfallen, für mobile Anwendungen in Forschung und Entwicklung, für die Film- und Medienbranche oder für eine einfachere Migration von Daten zwischen Clouds, hat Western Digital den Ultrastar Transporter entwickelt. Er ist ein transportabler, 13 kg schwerer All-Flash-Storage-Server mit bis zu 368 TB an NVMe-SSDs in einem robusten Gehäuse mit 1.300-WattNetzteil. Für eine schnelle Anbindung an eine lokale Infrastruktur bietet das Gerät zwei 200 GbE-Ethernet-Ports, auf dem internen Controller arbeitet eine Intel-Xeon-CPU mit 12 Cores. Für Daten sicherheit sollen Verschlüsselung und ein TPM-2.0-Modul sorgen. Mit einem Rail-Kit kann das Gerät im Rack mon tiert werden.

Für den sicheren Transport der mobilen Speicherlösung Ultrastar Transporter liefert Western Digital einen speziellen Transportkoffer mit.

BILD:WESTERNDIGITAL

lien in weniger als einer Minute erkennen sollen. Mit einer Anomalie-Erkennung wartet auch das neuste Pferd im Fujitsu-Storage-Stall auf, das gerade präsentierte Eternus NU200. Das HybridSystem mit 12 TB bis zu 3,5 PB Kapazität und Active-Active-Controller verfügt zudem über ein optimiertes Datenmanagement mit Storage-Pools und Erasure Coding sowie vor allem Unified Storage. Da das Eternus NU200 neben File- und Block- auch Object-Storage mit unveränderlichen Snapshots bietet, eignet es sich auch als BackupZiel für Lösungen von Veeam, Comvault oder Veritas. Bei Scality sieht man ebenfalls einen steigenden Bedarf nach S3-Speicherlösungen für eine gegen Ransomware geschützte Datensicherung wie der eigenen Artesca-Software. Daher vertreibt der eng mit Veeam kooperierende Hersteller seine Lösungen nun nicht mehr über den Channel seiner Hardware-Partner, vor allem HPE, sondern zusätzlich über die Distribution. Für den DACHMarkt ist Scality eine Partnerschaft mit TD Synnex eingegangen.

Titelstory / DATA STORAGE / 7 BILD: PRODUCTION PERIG - STOCK.ADOBE.COM

DISAGGREGIERTER SCALE-OUT-BLOCKSPEICHER

Auf KI-Hilfe zur Steigerung von Leistung und Zuverlässigkeit setzt HPE bei den Greenlake-StorageLösungen. Mittels AIOps sollen Störungen vorhergesagt und verhindert werden. Beim Release 3 von HPE GreenLake for Block Storage auf der Grundlage von HPE Alletra Storage MP werden mit KIHilfe zudem Trendanalysen zur Auslastung erstellt und Latenz-Hotspots pro Speicher-Volume ermittelt. Zudem ist das Release 3 von HPE GreenLake for Block Storage laut Hersteller der branchenweit erste dis-

Mit dem Eternus UN200 stellt Fujitsu ein flexibles Storage-System für kleine und mittelständische Unternehmen vor, das Block-, File- und ObjectStorage mit einem Software-Stack beherrscht.

aggregierte Scale-out-Blockspeicher, bei dem sich Leistung und Kapazität unabhängig voneinander skalieren lassen. HPE vergleicht das Konzept mit Legosteinen, die sich beliebig kombinieren lassen, je nachdem, ob eine möglichst hohe Performance oder eine maximale Kapazität benötigt werden. Laut HPE lässt sich GreenLake for Block Storage unterbrechungsfrei von 15,36 Terabyte auf bis zu

Ein weiteres Thema das viele Unternehmen und den Channel umtreibt, ist die Übernahme von VMware durch Broadcom beziehungsweise deren Auswirkungen. Sie machen sich daher Gedanken über mögliche Alternativen zu vSAN, auch wenn sie das VMware-Universum nicht komplett verlassen wollen. Denn vSAN ist künftig nur noch als Subskription und zu einem von der Kapazität abhängigen Preis verfügbar. Als Ersatz bieten sich Storage-Lösungen wie SANsymphony von Datacore, VSAN von Starwind oder das von Bytec distribuierte SvSAN von Stormagic an. Letzteres bietet bereits einen hochverfügbaren gemeinsamen Speicher mit nur zwei Nodes. In naher Zukunft müssen sich die Partner zudem mehr mit Speicher- und Backup-Lösungen für Container beschäftigen, da Kubernetes oder andere bei einer wachsenden Zahl von Unternehmen in den produktiven Einsatz kommen. Über CSI-Treiber für die Bereitstellung von persistentem Storage für Container-Orchestrierungssysteme verfügen praktisch alle modernen Systeme für Block- und File-Storage. Zudem bieten Hersteller wie NetApp oder Pure Storage mit Astra und Portworx eigene

Speicher- und Datenplattformen für Kubernetes in der hybriden Multi-Cloud an an. Dabei ist Portworx nicht an Storage-Lösungen von Pure Storage gebunden.

Nachhaltigkeit steht neben Performance, Fexibilität und Sicherheit bei immer mehr Kunden weit oben auf der Liste der Anforderungen, die Storage-Lösungen erfüllen müssen. Die Hersteller reagieren entsprechend. Vor allem die Hersteller von All-Flash-Systemen verweisen auf den geringeren Stromverbrauch der Systeme im Vergleich zu HDD- oder Hybrid-Storage-Lösungen. Zudem steigt die Kapazität der Speichermedien weiter an, da der steigende Bedarf an Speicherplatz auch ohne zusätzliche Storage-Systeme gedeckt werden kann.

Beim Vertriebsmodell bemühen sich die meisten Hersteller weiterhin darum, Kunden und Partner von verbrauchsbasierten Konzepten zu überzeugen, bei denen sie selbst als As-a-Service-Anbieter fungieren. Als Vorteile nennen sie eine höhere Flexibilität für die Kunden und wiederkehrende Umsätze für die Partner. Allerdings müssen die Hersteller hier noch Überzeugungsarbeit leisten.

Mehr zu As-a-Service-Modellen: https://voge.ly/vglqQdv/

Autor: Klaus Länger

8 / DATA STORAGE / Titelstory
BILD: HPE
Die Basis für das Release 3 von HPE GreenLake for Block Storage MP ist Alletra Storage MP. BILD: DANIEL SCHROCK

Vertragen sich Storage und Security?

Storage-Anbieter integrieren Security immer mehr ins Portfolio. Macht das den Security-Herstellern Angst? Oder diese gar bald überflüssig? Wie beide Segmente parallel bestehen können, erklären Experten aus dem Channel.

Storage und Security laufen nicht nur parallel, sondern ineinander verzahnt. „Vor allem, wenn es darum geht, Daten und Systeme mit zwei grundsätzlich unterschiedlichen Ansätzen zu schützen“, äußert Sven Janssen, VP Sales bei Sophos EMEA Central. „Die Schnittmengen beider IT-Disziplinen beziehen sich bei Storage vor allem auf die Data Protection beziehungsweise das Backup Recovery. TIM haben wir unter anderem deswegen als Distributor an Bord, weil er zusätzlich zu Security stark im Storage- und Backup-RecoveryUmfeld aktiv ist“, sagt er weiter.

Andere Security-Hersteller, zum Beispiel G Data Cyberdefense, bestätigen, dass Security und Storage sehr gut zusammenpassen, „Speicherressourcen müssen für alle Nutzer immer verfügbar und sicher sein“, erläutert Hendrik Flierman, VP Global Sales & Marketing. „Die Herausforderung besteht darin, effektive Sicherheitsmaßnahmen zu implementieren, ohne die Leistung und Skalierbarkeit des Storage-Systems zu beeinträchtigen. Erst das nahtlose Zusammenspiel kann die Integrität, Vertraulichkeit und Verfügbarkeit von Daten überhaupt gewährleisten“, ergänzt Michael Schröder, Manager of Security Business Strategy, Eset Deutschland. Denn Daten müssen sowohl vor digitalen Bedrohungen sowie vor unrecht-

mäßigem Zugriff, vor Ransomware oder Spionage/Sabotage geschützt werden. Dafür sind laut Schröder vor allem Storage-Anbieter verantwortlich.

Um dies zu gewährleisten, benötigt man die Expertise von IT-Sicherheitsherstellern. Eine sinnvolle Integration erfordert allerdings die Zusammenarbeit zwischen Storage- und Security-Experten. Dazu ist es wichtig, Bedrohungsdaten aus dem Storage-System zu analysieren, gemeinsam Lösungen zu finden und diese in automatisierte Reaktionen zu implementieren. Schröder argumentiert: „Viele Storage-Anbieter kaufen sich die Security hinzu und besitzen gar keine eigenen Sicherheitslösungen. Das ist auch nicht verwunderlich, denn IT-Sicherheit ‚fällt nicht vom Baum‘. Vielmehr bedarf es eines weltweiten Netzes von Research-Abteilungen für das Aufspüren neuer Gefahren in 24/7 und Entwicklungszentren für die entsprechenden Softwarelösungen.“ Investitionen in einen spezialisierten Sicherheitshersteller lohnen sich, da dieser „durch jahrelange, intensive Arbeit ein tiefes Verständnis von ITSicherheit ineinersichständigweiterentwickelnden Bedrohungslandschaft erlangt und auch das nötige Bauchgefühl, um neue Gefahren zu erahnen“, so Schröder weiter.

BILD: CTRLNSTOCK.ADOBE.COM 10 / DATA STORAGE / IT-Security

Unterscheiden sollte man hier genau, „wer was anbietet und für was Spezialist ist“, fügt Janssen bei und weist darauf hin, dass „es durchaus gerechtfertigt ist, dass Storage-Unternehmen einige ihrer Produkte in der Kommunikation unter das Licht der Security stellen.“ Ein Backup, ein unveränderlicher (immutable) Speicher und die Datenwiederherstellung nach einem Cyberangriff sind wesentlicher Teil einer guten Security-Strategie. Janssen erklärt: „Die klassische Security kämpft an einer ganz anderen Front. Wir sind nicht die letzte, sondern die erste Verteidigungslinie. Indem wir die Cyberangriffe mit unserer Technologie verhindern – bestehend aus integrierten Security-Ökosystemen, KI oder mit zusätzlichen menschlich durchgeführten Forensik-Services. Beim idealen Ausbau der Security wird die letzte Verteidigungslinie, also die Data Protection, bestenfalls nicht benötigt. Viele Studien belegen jedoch, dass kaum ein Unternehmen die ideale Security eingerichtet hat.“

Spezialwissen und langjährige Erfahrung ist das, was Security erfordert. Deshalb bietet G Data, so Flierman, strategische Partnerschaften zwischen Storage-Anbietern und Security-Unternehmen an, bei denen beide ihre Stärken einbringen können. „Ich bin daher gar nicht besorgt über die Entwicklung, sondern froh, dass Security einen zunehmend höheren Stellenwert hat“, fügt er hinzu.

Ein weites Feld: So kann man Security beschreiben. Es beginnt mit physischem Schutz von Anlagen und endet mit Sicherheitslösungen speziell

IT-Sicherheitsanbieter Cybereason gibt die dritte, jährliche RansomwareStudie bekannt. Sie soll Aufschluss darüber geben, welche Auswirkungen Ransomware auf Unternehmen hat. Ein Fazit: Ransomware-Angriffe werden immer häufiger, effektiver und raffinierter – doch die Zahlung von Lösegeld lohnt sich auf keinen Fall.

63 % der befragten Unternehmen in Deutschland waren in den letzten 24 Monaten von mehr als einem Ransomware-Angriff betroffen.

31 %

der angegriffenen Unternehmen hatten keine Sicherheitskopie ihrer Dateien und zahlten deshalb das Lösegeld.

Fast 80 % derjenigen, die das Lösegeld bezahlten, wurden ein zweites Mal angegriffen.

86 % wurden innerhalb eines Jahres erneut angegriffen.

63 % wurden erneut zur Zahlung aufgefordert.

gegen Cyberkriminelle. Storage-Anbieter können auf Security-Aspekte setzen, die für ihre Tätigkeit wichtig sind. Dennoch bieten sie oftmals beispielsweise keine Managed Services. Auch die Überprüfung der Netzwerke nach Anomalien oder Malware bleibt wohl Aufgabe spezialisierter Sicherheitshersteller.

Wichtigste Sicherheits-Updates: https://voge.ly/vglCV3R/

Autor: Barbara Miletic

KOMMENTAR:

WARUM SICHERHEITSHERSTELLER NICHT WEGZUDENKEN SIND

Die Anforderungen an Security sind sehr oft abhängig vom Einsatzzweck der entsprechenden Lösungen. Typische Herausforderungen sind unberechtigte Zugriffe auf die Systeme, was zumeist eine Frage des Access Management oder von Fehlkonfigurationen ist. Nutzt man große Storage-Systeme als Datenspeicher, dann ist es zudem eine gesetzliche Anforderung, Nutzer dieser Dienste vor der Verbreitung von Malware zu schützen. Die Lösungen von Trend Micro sind mit „Detection & Response“ gekoppelt. Diese können bei Bedarf zu einem unternehmensweiten Zero-

Trust-Konzept ausgebaut werden. Anbieter von Storage-Systemen unterscheiden sich darin, inwieweit ihre Lösungen Einsatzzwecke erlauben und was als Gegenmaßnahme sinnvoll ist. Der Vorteil von Security-Anbietern ist dabei, dass wir Unternehmen ganzheitliche Ansätze anbieten, die derartige Use Cases direkt mit abbilden. Dadurch werden Kosten und übermäßige Aufgaben für das Personal gespart. Auch für Channel-Partner bieten ganzheitliche Ansätze den Charme, die Kosten von Managed-Service-Dienstleistungen zu senken (cost of service).

IT-Security / DATA STORAGE / 11
QUELLE: CYBEREASON
BILD: TREND MICRO
Richard Werner, Cybersecurity Platform Lead, Europe, Trend Micro

Daten über Daten

Die Statistik von IDC und Statista befasst sich mit dem weltweiten jährlichen digitalen Datenaufkommen bis 2027. Demnach soll sich das Volumen der im Jahr 2027 erstellten und replizierten Daten auf rund 284 Zettabyte belaufen. Für das laufende Jahr rechnen die Analysten mit über 153 Zettabyte.

Schrumpfender Halbleitermarkt

Der weltweite Umsatz mit Halbleitern belief sich laut Gartner 2023 auf 533 Milliarden US-Dollar, ein Rückgang von 11,1 Prozent gegenüber 2022, laut vorläufigen Ergebnissen von Gartner. Der gemeinsame Umsatz der 25 größten Halbleiterhersteller sank 2023 um 14,1 Prozent, was 74,4 Prozent des Marktes entsprach, gegenüber 77,2 Prozent im Jahr 2022.

Volumen der jährlich generierten/replizierten Datenmenge weltweit von 2010 bis 2022 und Prognose bis 2027 in Zettabyte

Wachstum mit Speicherlösungen

Der Umsatz für Speicherlösungen im Rechenzentrum-Umfeld wird laut Statista im aktuellen Jahr etwa 2 Milliarden Euro betragen. Es wird außerdem erwartet, dass der Umsatz eine jährliche Wachstumsrate (CAGR 2024-2028) von 4,44 Prozent aufweist, was zu einem prognostizierten Marktvolumen von 2,38 Milliarden Euro im Jahr 2028 führt.

Speicherlösungen - Umsatz Deutschland (Milliarden EUR)

12 / DATA STORAGE / Marktbarometer
BILD: STATISTA MARKET INSIGHTS BILD: STATISTA MARKET INSIGHTS BILD: GHAZII  STOCK.ADOBE.COM HINTERGRUNDBILD: JENNIFERSTOCK.ADOBE.COM

Intel® Xeon® Prozessoren der 5. Generation

Der Prozessor für KI!

Zuverlässige Leistung. Außergewöhnliche Effizienz

Signifikante Performance Erhöhung

Künstliche Intelligenz verändert die Art und Weise, wie wir arbeiten. Unternehmen wollen Geld und Zeit sparen und neue Möglichkeiten

zu Bild und Codegenerierung einsetzen. Und dabei sind für die KI-Anwendungen die Hardwareverfügbarkeit, die Kosten, die diese Arbeitslasten immer mehr Computerleistung, aber oft nicht die

Intel verfügt über Dutzende von vortrainierten, optimierten KI-Modellen, die sofort einsatzbereit sind und leicht angepasst werden können.

Mit KI-Beschleunigung in jedem Kern sind die Intel® Xeon® Prozessoren der 5. Generation bereit, Ihre anspruchsvollen KI-Workloads zu bewältigen.

Die 5. Generation Intel® Xeon® CPUs liefert generationsübergreifende Verbesserungen für CPU- und Plattform-Upgrades

breiten Verfügbarkeit muss man nicht auf Hardware warten. Umgebung.

vertrauen - die Mehrheit der KI-Inferenzimplementierungen in

Global Computing Components (GCC), Teil von TD SYNNEX, bietet hochspezialisierte Lösungen im Technologie-Ökosystem. Wir sind Experten in Partnerschaften für innovative Lösungen und bieten Best-in-Class-Komponenten mit Agilität und weltweiter Reichweite. Unser Fokus liegt auf spezialisierten Servern und Speicherlösungen, die auf individuelle Anwendungen und Budgets zugeschnitten sind. Zudem unterstützen wir Kunden bei der Entwicklung neuer Technologien, einschließlich Künstlicher Intelligenz.

+49 89 4700 2231 DE_GCC_SPS@tdsynnex.com de.tdsynnex.com TD SYNNEX GCC Vertrieb
Advertorial

IBMs FlashSystemModelle – hier das

IBM Flashsystem 7300 – bieten modernste Leistungsmerkmale.

NAS-Speicher im Channel: eine kleine Übersicht

Es muss nicht immer die Cloud sein: Speicheraufgaben wie etwa Datensicherung und -wiederherstellung lassen sich gebührenfrei mit lokalem Netzwerkspeicher (NAS) realisieren. Dabei kann die Kapazität je nach Einsatzbereich von 4 Terabyte bis hin zu Petabyte reichen. Anbieter wie Synology, Dell, Pure Storage, Western Digital und IBM bieten dem Channel Optionen, mit Zusatzdiensten das Gerät selbst erheblich aufzuwerten.

Wenn man heute in einem AVM-WLAN-Router einen Netzwerkspeicher angeboten bekommt, so reicht dieser doch häufig nur für einfache Zwecke. Und wenn das Netz ausfällt, sind auch die Daten weg. Das kann mit einem NAS-Speicher im heimischen, firmeneigenen Netzwerk nur selten passieren. Und hier sind Kapazitäten zwischen wenigen Terabyte und mehreren Petabyte möglich.

Mit der BeeStation kündigt Synology einen Netzwerkspeicher mit integrierter 4-Terabyte-Festplatte an. Das System soll sich in Minutenschnelle als Cloud-Speicher einrichten lassen und als zentraler Ort zum Sichern, Organisieren und Teilen von Daten dienen. Die BeeStation ist für den Einsatz im Heimbüro gedacht. Das NAS soll vor allem die Lücke zwischen den Produktlinien BeeDrive und DiskStation schließen. Zielgruppe sind daher Nutzer, denen ein NAS zu komplex, ein BeeDrive aber zu abgespeckt ist. Die BeeStation stellt auf ihr gespeicherte Daten per Brow-

ser oder App bereit. Einige spezielle Funktionen wie etwa ein KI-basierter Photo Organizer erleichtern zudem Hobbyfotografen das Verwalten ihrer Aufnahmen: „BeeStation nutzt integrierte KIFotoerkennung, ohne Daten in die Cloud zu übertragen. Der eingebaute Neuralprozessor (NPU) beschleunigt KI-Prozesse, während andere Anwendungen reibungslos laufen. Backups und Datensynchronisation auch über mehrere Computer hinweg sind ebenfalls möglich.“ Regelmäßige Backups der BeeStation-Daten erfolgen zu Synology C2 Storage oder externen HDDs. Die Anbindung externer Cloud-Speicherdienste ist ebenfalls realisierbar. Synology nutzt in der BeeStation einen Realtek-RTD1619B-Prozessor mit 1,7 GHz und vier Kernen. Als Arbeitsspeicher ist 1 GB RAM an Bord.

„Unser NAS-Array FlashBlade geht weit über herkömmliche NAS hinaus“, sagt Markus Grau von Pure Storage. „Es ist eine Scale-Out-Lösung, die

BILD: IBM 14 / DATA STORAGE / NAS-Systeme

es erlaubt, Datenspeichergeräte in einer modernen Speicherinfrastruktur zu vereinfachen und zu konsolidieren.“

FlashBlade biete sowohl Fileals auch Objekt-Speicher und liefere native Ganz-FlashLeistung. Neue Blades lassen sich hinzufügen, um ohne Betriebsunterbrechung Kapazität und Leistung zu skalieren. Die I/O-Performance liege bei bis zu 15 GB/s bei 15 Blades in einem einzigen Chassis, die Datenübertragungsrate bei 100 Gbps pro Ethernet-Anschluss – bei 16 Ports pro FlashBlade-System. Die All Flash Array Plattform namens FlashBlade//E „beginnt bei 4 PB und skaliert ausgehend von dieser Kapazität mit zuverlässiger Leistung“, so Grau. „Wir verwenden im FlashBlade//E 48TB große Direct Flash Modules (DFMs)“, erläutert Grau. „Pro Blade vier Stück. Die Einstiegskonfiguration von FlashBlade//E besteht aus 10x EC Blades im Control Chassis mit je 4x 48TB DFM und 10x EX Blades im Expansion Chassis mit je 4x 48TB DFM.“

Western Digital (WDC) vertreibt seine NAS-Geräte ausschließlich über den Channel.

IBM bietet vier All Flash Arrays als NAS an und vertreibt sie über den Channel. Das FlashSystem 7200H ist eine „kostenoptimierte“ Flash-NVMeLösung mit SCM-Unterstützung für Flash-Beschleunigung und optionale HybridFlash-Erweiterungen für mittelgroße Workloads. IBM Storage FlashSystem 7300 ist ein kostengünstiger Speicher, der die Leistung beschleunigt und ITInfrastrukturen modernisiert. Als Teil der FlashSystem-Familie beruht das 7300 auf IBM FlashCore-Modulen und Flash-NVMe-Technologie. Basierend auf der IBM-Storage-VirtualizeSoftware ist dies „der Speicher für das moderne Unternehmen“: mit 85 TB, 170 TB, 380 TB, 765 TB oder 1,5 PB Kapazität. FlashSystem 5200H ist eine erschwingliche, kompakte Hybrid-Lösung, die für die aktuellen Anforderungen an die Unternehmensspeicherung ausgelegt ist. Die Rack-Größe beträgt nur eine Höheneinheit (1U), bietet aber Speicherkapazität von jeweils 45TB, 90TB, 170TB 340TB oder 680TB. FlashSystem 5015H (2U) ist mit einer Kapazität zwischen 20TB und 140TB eine kosteneffiziente Speicherlösung.

Ein FlashBlade NAS Array von Pure

Storage: FlashBlade//E umfasst ein Control

Chassis, ein Expansion Chassis, die Blades, die Direct Flash Modules und natürlich die Software, um alles zu steuern. Die Einstiegskapazität liegt bei 4 PB.

NAS-Systeme / DATA STORAGE / 15
BILD: OKSANA SMYSHLIAEVA - STOCK.ADOBE.COM
BILD: PURE
BILD: WESTERN DIGITAL

Synologys BeeStation soll die Lücke zwischen dem unkomplizierten BeeDrive und vollständigen NAS-Systemen schließen.

Dell hat in den vergangenen zwei Jahren mehrere Baureihen neu oder aktualisiert auf den Markt gebracht, um sämtliche Kundenanforderungen abzudecken. Als NAS-Gerät fürden Channel lässt sich Dell PowerStore einordnen. Die Modellfamilie reicht vom Basismodell 500T bis zum Modell 9200T. Das Basismodell bietet einen effektiven, nutzbaren Speicher von 4,71 PBe, das größte Modell 4,52 PBe, wassichaber im Clusterzu 18,06

WAS SIND NAS-SYSTEME?

Network Attached Storage (NAS) ist ein dediziertes Dateispeichersystem, das es mehreren Nutzern und Geräten im LAN erlaubt, aus einer zentralisierten Speichersektion im Netzwerk darauf zuzugreifen. Der Zugriff kann unter Verwendung verbreiteter Ethernet-Verbindungen via Router oder Netzwerk-Switch erfolgen.

Der hauptsächliche Vorteil besteht darin, dass ein NAS ein leicht zu bedienendes Speichersystem mit hoher Speicherkapazität und geringen Kosten handelt. NAS-Systeme sind flexibel und skalierbar, denn sie erlauben es, bei Bedarf weitere NAS-Speichergeräte nach dem Scale-out-Prinzip anzukoppeln und so einen wachsenden Cluster zu erstellen.

NAS-Appliances erlauben die Erweiterung der Speicherkapazität, indem einfach mehr oder größere Festplatten hinzugefügt werden, die sich zudem in einem Scale-out-Cluster kombinieren lassen. Die NAS-User können zusammenarbeiten, indem sie Daten effektiver miteinander teilen. Ist eine NAS Appliance an einen WLAN-Router ange-

PBe erweitern ließe. Entscheidend sind die Größe des RAM (192 GB bis 2.560 GB) und die Übertragungsgeschwindigkeit. „Alle Modelle bieten Scale-upund Scale-outauf bis zu 18 PBepro Cluster mitder Granularitäteineseinzigen Laufwerks.

Eher in der Liga von Synology BeeStation spielen drei Mycloud-NAS-Geräte, die WDC über den Channel vertreibt. Ab rund 300 Euro (Liste) für die Mycloud Expert Series EX2 Ultra erhalten Kunden 4 TB Speicherkapazität, die sie aber auf bis zu 36 TB ausbauen kann – dann kostet das Gerät knapp 1.150 Euro. My Cloud Pro Series PR2100 weist eine maximale Speicherkapazität von 28 TB auf. My Cloud Pro Series PR4100 lässt sich auf 72TB ausbauen. Bild- und Video-Verwaltung sind die wichtigsten Anwendungen, doch die primäre NAS-Aufgabe des Backups wird stets berücksichtigt: Acronis True Image Software sichert Daten in die WDC MyCloud und verschlüsselt die Festplatte.

Autor:

schlossen, kann sie einem verteilten Team den Fernzugriff auf Dateien von jedem Standort und von jedem autorisierten Gerät aus gewähren. In einem Rechenzentrum kann ein NAS sogar als Private Cloud agieren, um so den erwähnten Fernzugriff per Netzwerk oder Internet – via CloudSchnittstellen – zu erlauben. NAS weist sogar Vorteile auf, die denen einer Public Cloud ähneln, darunter hohe Zugriffsgeschwindigkeit, geringe Latenz und niedrige Kosten. Dem Nutzer verschafft eine NAS die maximale Kontrolle über die gespeicherten Daten. Das kann im Hinblick auf die Vorgaben der DSGVO ein wichtiges Kriterium darstellen.

Im Unterschied zu Block- und Object Storage speichert ein NAS Daten als Files und lässt sich deshalb als Ersatz für einen herkömmlichen File Server heranziehen. Ein NAS-System kann auf mehreren vernetzten NAS-Geräten bestehen und lässt sich mit einem LAN oder einem Ethernet-Netzwerk verbinden, das über einen zugewiesene IP-Adresse verfügt.

16 / DATA STORAGE / NAS-Systeme
BILD: SYNOLOGY
BAB Distribu�on GmbH Zeißstraße 10 32584 Löhne +49 (0) 57 32. 9814 - 100 sales@bab-distribu�on.de www.bab-distribu�on.de BAB - Dein Toshiba Distributor SPEICHERLÖSUNGEN für den professionellen & privaten Einsatz DISTRI AWARD 2024 GOLD KOMPONENTEN DISTRI AWARD 2024 GOLD HEIMVERNETZUNG & SMART HOME

Kann man kein ausreichendes Risikomanagement im eigenen Unternehmen vorweisen, drohen ab

Oktober 2024 hohe Strafen.

Die Umsetzung von NIS2 betrifft auch Storage.

Ist meine Datensicherung auch NIS2-konform?

Die Daten zuverlässig zu sichern, ist die eine Sache. Nun kommt die Gesetzesebene dazu. Welche Herausforderungen gibt es in Bezug auf Storage und NIS2?

Den Betrieb am Laufen halten, Datenverluste verhindern oder sie notfalls wiederherstellen – all dies ist nach einem erfolgreichen Cyberangriff auf ein Unternehmen dringend erforderlich. Wie schaffe ich es, möglichst schnell wieder handlungsfähig und produktiv zu sein? Und wie mache ich meine Datenspeicherung sicher sowie NIS2-konform?

Digitalisierung und Cyberbedrohungen haben eines gemeinsam: Sie nehmen rasant zu. Dies zwingt auch die Regierung dazu, zu reagieren. 2016 wurde EU-weit eine Cybersicherheits-Vorschrift eingeführt, die 2023 als Richtlinie erweitert wurde. Ihr Name: NIS2. Über 30.000 deutsche Unternehmen jeglicher Größe und Branche sind betroffen und sollen diese ab Mitte Oktober 2024 umsetzen.

Viele tun sich schwer, die Maßnahmen umzusetzen oder die Definitionen der Richtlinie richtig zu verstehen. Was bedeutet NIS2 nun für Speicher-

systeme, Datensicherung und Disaster Recovery?

„Ein cyberresilienter Speicher gehört zu den wichtigsten Anforderungen, um die Sicherheit von kritischen Daten zu gewährleisten und böswillige Angriffe auf die Speicher- und Dateninfrastruktur abwehren zu können“, heißt es im Storage Consortium Blog. Was Unternehmen also brauchen, sind Lösungen und Services, die helfen, schädliche Auswirkungen eines Cyberangriffs oder andere Katastrophen so weit wie möglich zu minimieren. Durch NIS2 gewinnen Backup- und Disaster-Recovery als Kernkriterium stärker an Bedeutung. Funktionen, die dazu gehören und NIS2 einhalten sollen, sind Immutable Backups, S3 Object Lock und unveränderliche Snapshots.

Am Beispiel des Immutable Storage können Daten dort, sobald sie geschrieben werden, in der Regel weder gelöscht noch verändert werden. Damit sollen Unternehmen in der Lage sein, die Daten im Notfall wieder vollständig korrekt zurücksichern zu können. Prinzipiell kann Ransomware aus

18 / DATA STORAGE / NIS2 BILD: ALI - STOCK.ADOBE.COM

Jan Bindig, Vorstand kiwiko eG BILD: JAN BINDIG

unterschiedlichen Quellen stammen und auf verschiedenen Wegen übertragen werden. Ganz vorne rangieren Phishing-Mails, die infizierte Anhänge enthalten und ganze Netzwerke kompromittieren können. Um diese Risiken zu mindern, kombinieren viele Unternehmen verschiedene Methoden, darunter Endpunkt-Sicherheit, Advanced Threat Detection and Response, PatchManagement, Multi-Faktor-Authentifizierung (MFA) sowie Sicherheitsschulungen für die Mitarbeiter. Als zusätzliche Sicherheitsebene, speziell für Sicherungskopien, empfehlen sich eben die Immutable Backups. Wo liegen nun die Herausforderungen, NIS2 bei Storage/Datenspeicherung umzusetzen?

Zum einen können die Anforderungen durch die zunehmende Komplexität der Dateninfrastruktur erschwert werden (On-Premises, Cloud, hybride Deployments, Datenwachstum, rasche Bereitstellung neuer Anwendungen, KI etc.) sowie damit einhergehende organisatorische Herausforderungen. Außerdem sorgen fragmentierte Datenstrukturen für eine mangelhafte Cyberresilienz, da sie komplex zu verwalten sowie teuer und die Verantwortlichkeiten oft nicht transparent sind. Dies belegt unter anderem die Commvault-FuturumGroup-Studie. Daher sollten „flexible Lizenz- und

„Insbesondere Kunden, die sich in ihrer ITSicherheit und bezüglich NIS2 unsicher fühlen, suchen aktiv nach klarer Orientierung. Lösungspakete, die durch Effizienz, Transparenz und Skalierbarkeit gekennzeichnet sind, werden geschätzt. In der Regel wird ein Investitionsanteil von 15 bis 20 Prozent des IT-Budgets für SicherheitsMaßnahmen als angemessen betrachtet.“

Preisgestaltungen sowie eine Palette von Lösungen, die sowohl On-Premises als auch Cloud oder hybride Umsetzungen unterstützen“ Teil eines Dienstleistungsangebots sein – sagt Jan Bindig, Vorstand der Kiwiko.

Vorteilhaft für eine bessere, NIS2-konforme Storage-Security sind moderne und konsolidierte Silo-Architekturen und eine engere Zusammenarbeit von unterschiedlichen Verantwortlichkeiten wie Backup, Storage und ITOps mit CSOs/CISOs.

Wie kann man den Unternehmen als IT-Dienstleister helfen? „Den Kunden wird zunächst eine umfassende Beratung angeboten, um Risiken in vorhandenen IT-Prozessen zu identifizieren und zu bewerten“, erklärt Bindig. „Daraufhin werden Schutzmaßnahmen erarbeitet und Lösungspakete angepasst, die bedarfsgerecht skalierbar sind. Arbeitsteilige Lösungen zwischen Kunden und ITDienstleistern sind essenziell, um ganzheitliche und effektive Sicherheitsmaßnahmen zu implementieren.“

Mehr zur Studie: https://voge.ly/vgle9K3/

Autor: Barbara Miletic

NIS2 / DATA STORAGE / 19

HAMR und Flash: Mehr Kapazität für Speicher

Das Datenwachstum läuft ungebremst weiter. Bei Festplatten hat Seagate die HAMR-Technologie für mehr Speicherkapazität endlich serienreif und bei SSDs sorgt vor allem 3D-NAND mit immer mehr Layern für mehr Speicherplatz.

Bei den Speichermedien für Storage-Systeme wird es auf absehbare Zeit eine Koexistenz von SSD und HDD geben. Zwar wächst die Kapazität von SSDs immer weiter, etwa durch die größere Verbreitung von QLC-Flash und durch NAND mit immer mehr Schichten für Speicherchips mit höherer Kapazität. Aber für viele Anwendungen reicht die Performance der immer noch deutlich günstigeren HDDs vollkommen aus. Dabei soll vor allem die HAMR-Technologie eine steigende Kapazität liefern. Seagate ist der Festplattenhersteller, der schon seit Jahren die Hauptarbeit bei der Entwicklung von HDDs mit Heat Assisted Magnetic Recording Technologie (HAMR) leistet. Mit der Mozaic-3+-Plattform hat Seagate eine Implementierung der HAMR-Technologie geschaffen, die eine Flächendichte von mehr als 3 TB pro Magnetscheibe ermöglicht und reif für die Massenproduktion ist. Der Name „Mozaic“ soll dabei deutlich machen, dass Seagate ein ganzes Bündel an Technologien entwickelt hat, die dafür sorgen, dass HAMR nun endlich serienreif ist.

Bei herkömmlichen PMR- und auch SMR-Festplatten ist das Problem, dass die für die einzelnen Partikel in den Metalloberflächen der Platter bei den derzeit genutzten Legierungen nicht mehr kleiner werden können, ohne dass die magnetische Stabilität für eine effektive und zuverlässige Speicherung der Daten leidet. Bei den HAMR-Festplatten

auf Mozaic-3+-Basis setzt Seagate eine Eisen-Platin-Legierung ein. Deren Gitterstruktur ermöglicht bei einer höheren magnetischen Koerzitivfeldstärke eine feinere Körnung im Nano-Maßstab mit hoher magnetischer Stabilität und damit eine höhere Datendichte. Mit einem herkömmlichen Schreibkopf kann die magnetische Polarität der Bits dieser magnetisch „härteren“ Medien allerdings nicht verändert werden, um so Daten zu speichern. Bei der HAMR-Technologie kommt dann Hitze ins Spiel: Ein nanophotonischer Laser mit 800 nm Wellenlänge erzeugt auf der Medienoberfläche einen winzigen Wärmepunkt, der die Koerzitivkraft der Körner für den winzigen Augenblick so weit vermindert, dass Daten geschrieben werden können. Weitere dafür notwendige Komponenten sind ein optischer Pfad. Seagate bezeichnet ihn als „photonischen Trichter“, sowie ein plasmonischer Near-Field-Transducer (NFT), dem Seagate bei Mozaic 3+ den Namen „Quantum Antenna“ gibt. Beide zusammen sorgen dafür, dass der auf der Plattenoberfläche erhitzte Punkt viel kleiner ist, als die Wellenlänge des Laserlichts. Denn die Schutzschicht über der Metalloberfläche der Platter wurde so angepasst, dass sie die kurzzeitige Erhitzung auf mehr als 400 Grad Celsius übersteht. Eine Interlayer- und eine Heatsink-Schicht zwischen Recording Layer und dem Glassubstrat sorgen für eine kontrollierte Wärmeabfuhr. Ein weiterentwickelter „Gen 7

BILD: RUDALL30STOCK.ADOBE.COM 20 / DATA STORAGE / Technologie

Spintronic-Lesekopf“ ist dafür verantwortlich, dass die Daten in den kleineren Körnern wieder gelesen werden können. Laut Seagate nutzt die Mozaic-3+-Plattform dafür Quantentechnologie und einen der kleinsten und empfindlichsten MagnetfeldLesesensoren der Welt. Den für die Steuerung notwendigen, leistungsstarken Controller mit Risk-V-Architektur hat der Hersteller selbst entwickelt und lässt ihn in 12-nm-Technik fertigen.

Exos-Festplatten mit 30 TB Kapazität werden seit dem ersten Quartal in großen Stückzahlenan Hyperscale-Cloud-Kunden ausgeliefert, erklärt Seagate. Sie ersetzen dort die vorwiegend verwendeten PMRFestplatten mit 16 TB Speicherplatz, was die Speicherkapazität bei gleichem Platzbedarf im Storage-System nahezu verdoppelt, wie John Morris, CTO bei Seagate betont. Das senkt nicht nur die Betriebskosten, da keine zusätzlichen Speichersysteme installiert werden müssen, fürdie zusätzlicher Platz im Rechenzentrum nötig wäre, sondern auch den Stromverbrauch pro Terabyte um bis zu 40 Prozent. Neben den CMR-Modellen mit 30 TB bietet Seagateauch 32-SMR-Platten an. Dem Channel sollen die HAMR-Festplatten noch in diesem Quartal zur Verfügung stehen, verspricht der Hersteller.

Der Einsatz von HAMR-HDDs im Enterprise-Storage wird aber noch dauern, wie Johannes Wag-

Der schematische Aufbau von Seagates Mozaic-3+-Plattform: Ein mikroskopisch kleiner Laser erhitzt mit Hilfe weiterer Komponenten einen wenige Nanometer großen Punkt auf der Plattenoberfläche, was deren magnetische Eigenschaften verändert und das Speichern eines Bits auf einer geringeren Fläche ermöglicht.

müller, Senior Director Solutions Engineering EMEA bei NetApp betont. Demnach evaluieren die Hersteller sie noch, um sicherzustellen, dass die Platten auch über einen langen Zeitraum hinweg stabil laufen. Das ist etwa bei Archiv-Anwendungenentscheidend. Zudem istauchdieVerfügbarkeit ein Faktor, da Seagate bislang der einzige Anbieter von 30-TB-HDDs ist.

Mehr zu HAMR unter: https://voge.ly/vglgC4F/

Autor:

SOLID STATE DRIVES: HÖHER STAPELN FÜR MEHR KAPAZITÄT

Bei SSDs gibt es im Wesentlichen zwei Technologien, die zu höheren Kapazitäten führen: 3DNAND mit mehr Layern oder mehr Bits zu Speicherzelle. Vor allem 3D-NAND, zunächst bei Samsung und dann auch bei anderen Herstellern, bedeutete einen wesentlichen Durchbruch, da die Transistoren dabei nicht mehr kleiner werden müssen. Nach Medienberichten aus Korea startet Samsung Semiconductor nun mit der Massenfertigung der neunten Generation seiner V-NANDChips mit nun 290 Layern, die sich auf zwei Stacks verteilen und peilt für das kommende Jahr sogar bis zu 430 Layer an. Hier kommt dann eine TripleStack-Technologie zum Einsatz, so der Korea Eco-

nomic Daily. SK Hynix hat im vergangenen Jahr bereits TLC-NAND mit 321 Layern präsentiert und soll dabei ebenfalls eine Triple-Stack-Technologie nutzen. Allerdings soll eine Massenproduktion erst im kommenden Jahr starten. Da mehr Stacks die Produktionskosten erhöhen, nutzen NAND-Hersteller für günstigere Produkte überwiegend QLC-NAND mit vier Bits pro Speicherzelle. Das erhöht zwar die Kapazität, mindert aber die Latenz und die Lebensdauer. Eine erste Penta-Level-Cell-SSD mit fünf Bits pro Zelle (PLC) hat Solidigm bereits 2022 präsentiert. Seitdem ist es aber still um PLC geworden, da dieTechnologie schwer beherrschbar ist.

Technologie / DATA STORAGE / 21
BILD: SEAGATE

Nachhaltigkeit durch Kapazitätswachstum

Nachhaltigkeit spielt auch bei Storage im Rechenzentrum eine wichtigere Rolle. Sie wird durch steigende Speichergrößen und den Umstieg auf SSDs erreicht.

Etwa 15 Prozent des Energieverbrauchs in einem Rechenzentrum geht auf das Konto von StorageSystemen. Angesichts des steigenden Datenwachstums durch KI, GenAI und Datenanalysen würde dieser Anteil in Zukunft massiv wachsen, wenn nicht gleichzeitig die Kapazität der Speichermedien ebenfalls massiv wachsen würde. So können deutlich mehr Daten gespeichert werden, ohne dass zusätzliche Systeme aufgestellt werden, die mehr Platz im Datacenter belegen und mehr Energie verbrauchen. Laut einer Rechnung von Seagate benötigt beispielsweise eine 16-TB-HDD im Betrieb etwa 0,59 Watt pro TB während eine 30-TB-HAMR-Festplatte mit 0,32 Watt pro TB auskommt und nur etwas mehr als die Hälfte des Volumens im Datacenters belegt. Ein weiterer Faktor bei HDDs ist, dass die Hersteller hier darauf drängen, dass ausgemusterte aber noch intakte Laufwerke nicht mehr in den Shredder wandern, sondern vom Hersteller für eine weitere Verwendung rezertifiziert werden. Alle Daten werden dabei sicher gelöscht.

Massive Einsparungen bei Platz- und Energieverbrauch führen auch die Hersteller von All-FlashMainstream-Systemen an, die etwa bisherige Hybrid-Flash- oder HDD-Systeme ersetzen sollen, die mit relativ kleinen aber schnell drehenden SAS-HDDs arbeiten. Laut Pure Storage soll etwa ein FlashArray//E mit einem um 80 Prozent geringeren Strom- und Platzbedarf aufwarten und nach dem Lebensende um 85 Prozent weniger Elektroschrott produzieren.

„Nachhaltigkeit wird den Storage-Markt revolutionieren“ erklärt daher Elke Steinegger, seit Januar Regional Vice President Germany and Austria bei Pure Storage. Etliche Hersteller haben eigene SLAGarantien herausgebracht, die das Thema Nachhaltigkeit abdecken. So verspricht Pure Storage den Kunden die Übernahme von Kosten für Strom und Rackspace, wenn die garantierten Watt pro TB oder TB pro Rack nicht erreicht werden. Der Hersteller verwendet keine Standard-SSDs, sondern eigene Flash-Module mit besonders hoher Datendichte. NetApp bestückt die Systeme mit herkömmlichen SSDs, bietet seit vergangenem Jahr aber für die Kunden seines StaaS-Angebots Keystone ebenfalls ein Service-Level-Agreement (SLA) für Nachhaltigkeit an, das einen bestimmten Leistungsverbrauch pro TB garantiert.

Die Weiterentwicklung von Storage-Software und Controllern trägt ebenfalls zu einer Senkung von Stromverbrauch und Ressourceneinsatz bei. So vermindern effizientere Verfahren für Kompression und Deduplikation der Daten im Zusammenspiel mit leistungsfähigeren Controllern die auf den Speichermedien benötigte Kapazität. Zudem optimieren moderne Methoden für das Speichern der Daten wie Erasure Coding den Platzbedarf und kommen ohne Hot-Spare-Laufwerke aus.

Nachhaltiges Datacenter: https://voge.ly/vglY1DC/

Autor:

Klaus Länger

BILD: MIHRZNSTOCK.ADOBE.COM 22 / DATA STORAGE / Nachhaltigkeit

Hier wird Zukunft geschrieben und gelesen.

Mozaic 3+ ist die einzigartige HAMR-Implementierung von Seagate. Sie ermöglicht Festplattenspeicher mit einer beispiellosen Schreibdichte von 3 TB pro Scheibe (10 integrierte Scheiben = 30 TB Festplatten Kapazität). So werden Daten in einer bisher nicht vorstellbaren Dichte auf einen Datenträger gespeichert. Das bedeutet enorme Einsparungen bei den Gesamtbetriebskosten und Platzbedarf im Rechenzentrum, mehr Daten können gespeichert und die Nachhaltigkeit verbessert werden. Die CO2 Emissionen für Herstellung und Betrieb reduzieren sich um 70 %.1

Mit Mozaic-Festplatten können Rechenzentren:

3x -60%

Die Speicherkapazität verdreifachen, ohne die Stellfläche zu vergrößern.1

Die Stromkosten pro Terabyte um 60% verringern.1

Die Anschaffungskosten pro Terabyte und Gesamtbetriebskosten senken.1

Mehr Informationen finden Sie:

1 Vergleich der Festplatte Exos X10 10TB mit Exos Mozaic 3+ 30 TB

dank steigendem Bedarf

Die Nachfrage nach Storage bleibt auch weiterhin hoch, wie die Aussagen einiger Distributoren bestätigen. Dabei spielt der verstärkte Einsatz von Künstlicher Intelligenz eine Schlüsselrolle. Denn KI benötigt nun einmal mehr Speicherlösungen, kann aber gleichzeitig Abhilfe schaffen.

In Zusammenarbeit mit Wakefield Research hat der Anbieter Pure Storage die Studie „Drivers of Change: Meeting the Energy and Data Challenges of AI Adoption“ veröffentlicht, die unter anderem auf diesen Aspekt eingeht – den Datenbedarf von KI. Dabei gaben 77 Prozent der befragten Unternehmen an, dass für den KI-Einsatz eine Aufrüstung des Datenmanagements erforderlich ist oder erforderlich sein wird. Von dieser Entwicklung profitiert unter anderem das Distributionsgeschäft. Da die Basis für Anwendungen wie IoT und KI Speicherlösungen bilden, verzeichnet der Distributor TIM aus Wiesbaden eine hohe Nachfrage in allen Storage­Bereichen, darunter „Primär und Sekundär Speichersysteme, wie auch HCI (Hyper Converged Infrastructure)“, erklärt Bijan Taleghani Leiter Produktmarketing und Business Development bei TIM.

„Wir sehen ein neues, wachsendes Segment, das immer mehr Speicherplatz verbraucht“, fasst es Julia Mitterdorfer, Director GCC bei TD Synnex, zusammen. Beispielsweise wird mehr Platz benötigt, um Daten aus der Trainingsphase von KI­

Modellen zu speichern oder schlichtweg die Ergebnisse. Und dieser Bedarf an Speicherplatz muss gesättigt werden. Hier kommt die Distribution mit ihren Lösungen ins Spiel. Daher hält der Broadliner stetig Ausschau nach neuen Anbietern im Storage ­Bereich – verstärkt für KI. „Man sieht, dass KI­Startups sehr schnell wachsen und einige spezifische Anforderungen an den Speicherplatz haben, die wir immer gerne unterstützen“, sagt Mitterdorfer.

Dabei ist KI nicht ausschließlich Speicherfresser, sondern kann im Storage ­Segment durchaus hilfreich sein, um Daten zu kontrollieren und zu verwalten. „KI­Technologien ermöglichen es Speichersystemen, intelligenter zu agieren, zum Beispiel durch automatisierte Datenanalyse und Prognosen für künftige Speicheranforderungen. Diese Entwicklung trägt dazu bei, die operativen Kosten zu senken und die Infrastruktur zukunftssicher zu machen“, nennt Mario Glockner, Head of Solution Design bei Ingram Micro, Vorteile. So finden auch solche Lösungen ihren Platz im Storage ­Portfolio der Distributoren.

Starkes Interesse
BILD: KI-GENERIERT / COPILOT 24 / DATA STORAGE / Distribution

Der einzige Treiber ist KI aber nicht. „Das ungebremste Wachstum an Informationen und die gestiegenen Anforderungen an Sicherheit, Effizienz und Verfügbarkeit erhöhen die Relevanz und den Bedarf an Data & Storage“, begründet Taleghani die weitere Nachfrage. Neben diesen Aspekten verschärft sich die Cyberbedrohungslage enorm, wodurch entsprechende Lösungen ebenfalls an Bedeutung gewinnen. Glockner nennt unter anderem die Cyber Resiliency als immer wichtigeres Thema in diesem Zusammenhang. Weiter wird das Distributionsgeschäft durch den Trend hin zu Plattformen für die Hybrid Cloud angekurbelt. „Diese ermöglichen es Unternehmen, ihre Daten nahtlos zwischen verschiedenen Umgebungen zu bewegen, was besonders in Bezug auf Flexibilität und Sicherheit wichtig ist“, klärt Glockner auf.

Bei TD Synnex sei die erhöhte Nachfrage auf drei Hauptbereiche zurückzuführen. Zum einen sind da die Speicher für KI­ Cluster. Außerdem käme nun mehr Nachfrage aus der Cloud: „Nach mehreren Quartalen melden sich CSP mit Aufträgen zurück, insbesondere neue Kapazitätspunkte von Speicheranbietern werden unterstützt“, konkretisiert Mitterdorfer. Sie nennt zudem die Datenrückführung als aktuellen Wachstumstreiber für Storage. „Wir sehen einen starken Trend, wenn Unternehmen einen Teil ihrer Daten (oder sogar alle Daten) aus der Cloud in On­PremisesSpeicherlösungen verschieben. Viele Faktoren unterstützen diese Entscheidung – gesetzliche Vorschriften, 24x7-Zugriff, Unternehmensrichtlinien und weitere.“

In Anbetracht des Speicherbedarfs und immer komplexeren Strukturen durch Cloud, On­Premises, Hybrid Cloud und Co. bietet sich für Kunden das Konzept Storage as a Service (StaaS) an. Der Datenspeicher bedingt bei diesem Modell keine Vorabinvestition, Kunden erhalten ein Rund­umPaket, müssen sich selbst um wenig kümmern. Kein Wunder also, dass bei Distributoren auch an dieser Stelle ein starkes Interesse spürbar ist. „Die Nachfrage nach Storage as a Service hat in letzter Zeit stark zugenommen. Die Unternehmen schätzen die Flexibilität und Skalierbarkeit

dieser Lösungen, da sie die Nutzung von Speicherressourcen nach Bedarf ermöglichen, ohne große Investitionen tätigen zu müssen“, begründet Glockner diese Entwicklung. Als Beispiele nennt er Operating Models wie HPE Greenlake, Dell Apex, NetApp Keystone und IBM Cloud.

Ein solches Interesse nimmt auch der Distributor TIM wahr. „Grundsätzlich erwarten wir, dass in Zukunft wesentlich mehr hybride Modelle, d.h. klassische OnPremises-Umgebungen kombiniert mit externen Angeboten (S/DCaaS) realisiert werden und die Nachfrage entsprechend weiter steigt“, prognostiziert Taleghani. Bei der Entscheidung für solche Angebote seien besonders die Sicherheit, Verfügbarkeit aber auch Wirtschaftlichkeit wichtig. „Die Wahl und Kombination effizienter Produkte und Dienstleistungen kann dann auch einen positiven Effekt auf die Nachhaltigkeit realisieren“, nennt Taleghani eine weiteren Punkt. An dieser Stelle offeriert TIM ein Angebot von On-Premises über spezielle MSPLösungen (für Systemhauspartner), bis zu verschiedenen aaS ­Möglichkeiten.

Neben diesem Boom gibt es Herausforderungen für die Distribution, wie die steigenden Preise für Storage. Einer Analyse von Trendforce zufolge werden NAND-FlashAnbieter die Preise für ihre Produkte massiv erhöhen. Das könnte zu einer Kaufzurückhaltung führen. TD Synnex setzt daher auf eine enge Zusammenarbeit mit den Herstellern, um Partnern so Veränderungen vorhersehbar zu machen. Diese enge Kooperation nutzt der Broadliner zudem bei Akquisitionen im Markt, die wie in anderen Bereichen auch bei Storage ­Anbietern vorkommen. So kaufte beispielsweise kürzlich der Hersteller Cohesity das Datenschutzgeschäft von Veritas. „Solche Prozesse wie Fusionen finden immer statt und wir sind immer bereit, die Entscheidung des Herstellers oder des Marktes zu unterstützen, um das Business weiter auszubauen“, versichert Mitterdorfer.

Mehr zur Fusion unter: https://voge.ly/vglFIYj/

Autor: Mihriban Dincel

„Um die Anforderungen im Bereich Storage zu erfüllen, sollten Fachhändler das breite Spektrum von potenziellen Lösungsansätzen – unter Berücksichtigung der für den Endkunden relevanten Faktoren – beraten können.“

„Man sieht, dass KI-Startups sehr schnell wachsen und einige spezifische Anforderungen an den Speicherplatz haben.“

Distribution / DATA STORAGE / 25
BILD: TIM
Bijan Taleghani, Leiter Produktmarketing & Business Development TIM
BILD: TD SYNNEX
Julia Mitterdorfer, Director GCC bei TD Synnex

KOMPLEXE PROJEKTE, VIEL ZU VIELE DATEN

IT-Dienstleister im Storage-Umfeld bewegen sich in einem enorm dynamischen Markt. Wir haben bei Materna, MentIQ und Concat nachgefragt, wo sie ihre Geschäftspotenziale ausmachen, und welche Herausforderungen dabei auf sie und die Kundschaft warten. Das Thema KI ist dabei übrigens noch sehr überschaubar.

Angesichts zunehmender Datenvolumina werden Lösungen zur Sicherung von Daten nachhaltig nachgefragt. Laut Statista wird der Umsatz auf dem Storage-Markt entsprechend von 50,58 Milliarden Dollar in diesem Jahr auf voraussichtlich 62,63 Milliarden Dollar im Jahr 2028 ansteigen. Von diesem aufgehenden Kuchen möchten immer mehr Dienstleister ein Stück abhaben. Die Storage-Spezialisten müssen dafür Antworten auf viele Fragen geben, vom Datenschutz über die sinnvolle Verwertung bis hin zu Backup und Disaster Recovery. Genauso vielfältig fallen auch die Offerten aus, sie reichen von Storage-Servern sowie zugehörigen Komponenten über Services

aus der Cloud bis zu hybriden Lösungen. Wo genau liegt aber das größte Geschäftspotenzial?

Storage ist im deutschen Mittelstand laut Auskunft von Stefan Roth, Head of Storage Platforms CE von Fujitsu, noch überwiegend eine hausinterne Angelegenheit. Die Daten würden vorzugsweise On-Premises abgelegt, Storage-Services aus der Cloud gewännen allerdings zunehmend an Boden. Das kommt Dienstleistern wie Materna zugute, die Storage hauptsächlich als SaaS anbieten: „Wir unterstützen unsere Kunden auch beim Onboarding unserer oder fremder Dienste in eigenen Rechenzentren“, berichtet Harald

26 / DATA STORAGE / Dienstleister
BILD: KI-GENERIERT / MIDJOURNEY

Husemann, Senior System Administrator Managed Services bei Materna. Den Trend bestätigt Stefan Tübinger, CTO bei Concat: „Auch wir sehen die größten Potenziale im As-a-Service-Modell, egal ob Storage, Platform oder Application.“ In der Multicloud stünden ja generell Services bzw. Anwendungen im Mittelpunkt, nicht die Technologie, so der Cheftechnologe. Auch Sebastian Wormser, Lead IT Architect bei MentIQ sieht die Bedeutung von Services am Zunehmen, nicht nur, wenn sie aus der Cloud kommen: „Das beginnt mit der Beratung im Rahmen der Lösungsfindung, über die Implementierung und Wartung, bis hin zu Managed Services, die unseren Kunden Arbeit abnehmen. Mit der engen Abstimmung und der partnerschaftlichen Begleitung unserer Kunden stellen wir eine hohe Qualität der eigentlichen Lösung, aber auch unserer Services sicher. Genau in dieser hohen Servicequalität und dem Angebot von maßgeschneiderten Services liegt das Geschäftspotenzial.“ Auch Sicherheitsthemen befänden sich in stetigem Aufwind, so Tübinger. Für die wachsende Bedrohung durch Cyberangriffe würden robuste Lösungen für Speicherumgebungen benötigt, um Sicherheits- und ComplianceVorgaben einzuhalten, zu nennen wären etwa TISAX oder NIS2. Und für den sicheren Zugriff kämen Anwender um ein zentrales Identity- und Access-Management nicht herum.

Husemann bringt die größte Herausforderung für Dienstleister auf den Punkt: „Daten“. Deren Menge nehme einfach so unwahrscheinlich zu, mittlerweile bewege man sich „schon fast im Petabyte-Bereich“. Auch Wormser von MentIQ trifft bei nahezu allen Kunden auf dieselbe Herausforderung, eben die stetig steigende Menge an unstrukturierten Daten – „bei allgegenwärtigem Kostendruck“. Tübinger sieht die zunehmende Datenmenge Hand in Hand gehen mit einer wachsenden Vielfalt und Komplexität von und in Projekten. „Als Dienstleister sind wir gefordert, Services zu standardisieren, um ein hohes Maß an Qualität, Resilienz und Sicherheit zu erreichen. Gleichzeitig wollen die Kunden individuelle Services: Das ist jedoch mit einem Mehraufwand verbunden.“ In diesem

Spannungsfeld gelte es, die Balance zwischen Standardisierung auf der einen Seite und individuellen Lösungen auf der anderen Seite zu halten. Wormser gibt zu bedenken, dass die Komplexität der Projekte nicht nur auf technischer, sondern auch auf organisatorischer Seite steige. „MentIQ hat daher schon immer die Datenklassifikation an erste Stelle gesetzt, um die Aufbewahrung der Daten anhand des Werts der Daten zu optimieren. Diese Vorgehensweise ist heute bei explodierenden Datenmengen wichtiger denn je.“

Mehr Daten und Komplexität werfen zudem immer gewichtigere Fragen für den Datenschutz auf. „Materna arbeitet sehr viel mit Behörden zusammen und entwickelt Software für verschiedene Bundesämter wie das für Katastrophenschutz, Justiz, Finanzen, etc. Bei denen spielt der Datenschutz natürlich immer eine sehr starke Rolle, sei es auf Basis der DSGVO oder anderer nationaler Richtlinien“, so Husemann. „Hier können wir als IT-Dienstleister unsere Stärken ausspielen, da wir Storage-Lösungen in lokalen Rechenzentren anbieten können, die somit den deutschen Datenschutzrichtlinien unterliegen.“ Das würden die Kunden honorieren und zunehmend auf lokale Dienstleister wie Materna setzen, statt auf Hyperscaler wie AWS, Microsoft oder Google.

Analog zur steigenden Zahl an Herausforderungen für die IT-Dienstleister nehmen auch die Probleme der Anwender nicht ab, im Gegenteil. „Kunden sind aktuell konfrontiert mit steigenden Lizenzkosten durch Hersteller, die nicht im Budget eingeplant waren“, berichtet Tübinger. „Sie kämpfen außerdem mit neuen Technologien wie Container, Machine Learning (ML) und KI.“ Hinzu komme die gesetzlich geforderte Einhaltung von Richtlinien und Regularien, die eine immer größere Rolle spiele. „Von NIS2 werden z. B. 29.000 Unternehmen hierzulande betroffen sein, sobald das Gesetz in Kraft getreten ist“, so Tübinger. Dies binde enorme Ressourcen, so dass wichtige andere Themen nicht bearbeitet werden könnten. Den Kunden fehle es generell an fachlich ausgebildetem Personal. Das bestätigt Wormser: „Bei

„Hier können wir als ITDienstleister unsere Stärken ausspielen, da wir Storage-Lösungen in lokalen Rechenzentren anbieten können, die somit den deutschen Datenschutzrichtlinien unterliegen.“

„Als Dienstleister sind wir gefordert, Services zu standardisieren, um ein hohes Maß an Qualität, Resilienz und Sicherheit zu erreichen. Gleichzeitig wollen die Kunden individuelle Services: Das ist jedoch mit einem Mehraufwand verbunden.“

Harald Husemann, Senior System Administrator Managed Services bei Materna Stefan Tübinger, CTO bei Concat BILD: MATERNA BILD: CONCAT
Dienstleister / DATA STORAGE / 27

„Mit der engen Abstimmung und der partnerschaftlichen Begleitung unserer Kunden stellen wir eine hohe Qualität der eigentlichen Lösung, aber auch unserer Services sicher. Genau in dieser hohen Servicequalität und dem Angebot von maßgeschneiderten Services liegt das Geschäftspotenzial.“

nahezu jedem Kunden müssen Projekte verschoben werden, weil Personalmangel herrscht. Andere Projekte werden aus demselben Grund erst gar nicht gestartet.“ Kostendruck entstehe auch durch die Notwendigkeit, die Infrastrukturen beständig zu aktualisieren, um neue Anforderungen erfüllen zu können, so Wormser. „Und dazu gehören Sicherheitsanforderungen ebenso wie funktionale Anforderungen. Aktuell winken viele unserer Kunden bei der Diskussion über eine Datenklassifizierung ab, da sie die organisatorischen Aufwände und lange Projektlaufzeiten scheuen.“ Im Umkehrschluss bedeute diese aber ein „Weiter so“, die steigende Datenflut werde wie gehabt mit mehr Hardware bekämpft. „Da sich der Markt für Speichersysteme rasant entwickelt, ist es für Kunden aber zunehmend schwierig, immer auf dem Laufenden zu bleiben und die richtige Infrastrukturentscheidung zu treffen. Nicht selten werden in der Konsequenz folgenschwere ‚Cloud-first‘-Strategien beschlossen“, berichtet der Lead IT Architect mit Sitz in Dornach.

Kann in dieser angespannten Lage die KI Erleichterungen bringen? Eher (noch) nicht, so die ernüchternde Einschätzung der Experten. Materna als Gesamtunternehmen entwickle durchaus in dem einen oder anderen Bereich Software auf KI-Basis, für Husemann spielt sie im Bereich der System-Administration aktuell aber keine wirkliche Rolle. Rein auf die Storage-Infrastrukturen der Kunden bezogen bedeute KI vor allem, dass Speicher mit einem neuen Anforderungsprofil benötigt würden. „Je nachdem in welchem Bereich

der KI man sich bewegt, sind hohe Bandbreiten und/oder geringe Latenzen wichtig. Das ist aber nichts, womit moderne Speichersysteme bei sorgfältiger Planung nicht umgehen könnten“, erläutert Wormser. „Die Kommunikation verändert sich allerdings, denn die IT-Infrastruktur-Verantwortlichen haben andere Ansprechpartner, wenn es um KI geht.“ Er macht zwar neue Speichersysteme aus, die mit KI-Funktionen werben, „die bahnbrechenden Funktionen blieben dabei aber bis dato noch aus“, so sein Urteil. „Bei Block-basierter Speicherung ist die Nutzung von KI herausfordernd, da die Inhalte nicht im Klartext gespeichert werden und die geforderten Latenzen niedrig sind. KI sorgte hier eher für zusätzlichen Overhead.“ Das Potenzial der KI bei Speicherung und Management unstrukturierter Daten sei jedoch enorm. Auch Tübinger rechnet damit, dass die Rolle der KI noch sehr viel bedeutender werden wird: „KI-unterstützte Storage-Systeme finden Fehler schneller, vereinfachen Prozesse und unterstützen Techniker beim Troubleshooting. Algorithmen werden in alle Geschäftsfelder vordringen, wo es darum geht, Qualität zu verbessern und Personalnot auszugleichen. KI-Systeme werden andere KI-Systeme überwachen. In jedem mobile Device wird künftig KI integriert sein, das wird Anwendungen komplett verändern.“

Autor: Dietmar Müller

28 / DATA STORAGE / Dienstleister
BILD: KI-GENERIERT / MIDJOURNEY Sebastian Wormser, Lead IT Architect bei MentIQ BILD: MENTIQ

So hilft KI schon jetzt im Storage-Umfeld

KI ist in aller Munde – immerhin ist dieses Tool, richtig angewandt, nahezu universell einsetzbar. Dabei muss es durchaus nicht immer ChatGPT sein. Viele Hersteller nutzen KI und ML heute schon ganz selbstverständlich.

Zum Schweizer Messer der IT-Branche könnte sich KI entwickeln. Jedenfalls, wenn man den Marketingversprechen der Branche und dem Hype nach der Veröffentlichung der vierten Generation generativer Sprachmodelle wie ChatGPT glaubt. Doch was bedeutet das für die Storage-Systeme und für Reseller, die Storage an ihre Kunden verkaufen, Storage-Produkte in Kundenumgebungen integrieren oder das Storage-Management für Kunden übernehmen?

Aus der Warte des Handels betrachtet, ermöglicht die Nutzung von KI beispielsweise die intensivere Analyse der Kunden und ihrer Bedarfe. Allerdings werden sich Erfolge hier wohl am ehesten einstellen, wenn das Unternehmen erstens seine Datenbestände in Ordnung hat, zweitens StorageSilos konsequent auflöst und drittens darin investiert, durch Feinanpassung ein ans individuelle Geschäft angepasstes KI-Umfeld zu entwickeln. Ohne Invest ist das nicht zu haben. Deshalb werden wohl gerade viele kleinere Reseller vorläufig vor solchen Anstrengungen zurückschrecken. Für die Großen allerdings dürften sich solche KI-Projekte schon bald zum Muss entwickeln, um mit der Konkurrenz mitzuhalten. Doch auch ein einfacher Standard-Account bei ChatGPT kann schon nutzen. Er kann beispielsweise helfen, Wer-

beschreiben stilistisch gekonnter abzufassen. Und wer sagt, dass sich mit gekonntem Prompting nicht neue, vielleicht sogar durch Zahlen unterlegte Argumente für den Vertrieb bestimmter Lösungen generieren lassen?

Wer ChatGPT scheut, kann sich auch darauf stützen, dass Microsoft als Standard-Bürosoftware mehr und mehr Intelligenzfunktionen in seine Online-Lösungen einbauen will. Die steht dann jedem Anwender zur Verfügung und wird wohl auch ohne externe Lösungen die Gewinnung tieferer Einsichten aus den vorhandenen Datenbanken und sonstigen Quellen gestatten.

Möglicherweise nutzen die Hersteller, die man selbst führt, auch ihrerseits schon KI-verfeinerte Empfehlungsmaschinen. Sie können helfen, das richtige Produkt oder die richtige Lösung für einen Kunden zu finden. Wer als Serviceanbieter entweder das Management mehrerer Kundensysteme übernimmt, wird AI in Zukunft zum Management von Kunden und Kundensystemen verwendet. Und wer selbst Storage-Services aus der Cloud offeriert, wird mit entsprechenden Tools seine eigenen Systemlandschaften optimal an die Kunden verteilen. Definitiv hält KI bei allen komplexeren Aufgaben des Storagemanagement und

30 / DATA STORAGE / KI und Storage
BILD: KI-GENERIERT/MIDJOURNEY

Crucial® T705Gen5SSDmitKühlkörper

UNSERESCHNELLSTE

ISTJETZTNOCHSCHNELLER

GnadenloseGeschwindigkeiterwartetSie.

SindSiedabei?

Blitzschnell:

Lesen/Schreibenmitbiszu14500/12

700MB/s1

Innovation: MitMicron® 232-LayerTLCNAND2

CrucialT705PCIeGen5NVMeSSD

HaltenSiesichfest–dieCrucial® T705NVMe® Gen5SSDbringtGen5LeistungaufdasnächsteLevel.FeuernSieIhrGamingan,arbeitenSie mitdemTempoIhrerIdeenundnutzenSieproblemlosKI-Anwendungen mitdiesemvollständigoptimiertenMeisterwerkderGen5-Technologiein limitierterAuflage,einschließlichPremium-Kühlkörperfürgeräuscharme WärmeableitungundelegantesDesign.

Kapazität: 1TB,2TB,4TB3

Garantie: FünfJahreeingeschränkt4

Generation: PCIe® 5.0NVMeM.22280SSD

Kühlkörper: MaximaleWärmeableitungohnelauteLüfter

LassenSiedieGrenzenzwischenvirtueller undechterRealitäthintersich–mitmaximalerGen5-Leistung

MitunglaublichensequenziellenLese-undSchreibgeschwindigkeiten1 biszu14500/12700MB/süberragtdieCrucialT705inSachen TempoundLeistungdieKonkurrenzundstelltsogardiebisher schnellstenSSDsindenSchatten.DieT705maximiertdieGen5TechnologiemitnahezuderdoppeltenLeistung5vonGen4-SSDs, ohnedenStromverbrauchsignifikantzuerhöhen.

1 DietypischeE/A-LeistungwurdeunterVerwendungvonCrystalDiskMark®miteinerWarteschlangentiefevon512undaktiviertemSchreibcachegemessen.DieCore-IsolierungvonWindows11wurdefürdieLeistungsmessungdeaktiviert.DerFOB-Zustand(Fresh-out-of-the-box)wirdvorausgesetzt.FürLeistungsmessungenkanndieSSDmitdemBefehl„SicheresLöschen“indenFOB-Zustandzurückgesetztwerden.AbweichendeTestkonfigurationenwirkensichaufdieMessergebnisseaus. 2 BesuchenSiemicron.com/products/nand-flash,umweitereInformationenzuerhalten. 3 ImVergleichzurCrucialMX500SATASSDmitgelisteterGeschwindigkeit von560MB/s.DietatsächlicheGeschwindigkeitkannvariieren. 4 DieGarantiegiltfür5JahreabdemursprünglichenKaufdatumoderbiszudemZeitpunkt,andemdiezulässigeHöchstzahlangeschriebenenBytes(TBW) erreichtwird,wieimProduktdatenblattveröffentlichtundwieindenSMART-DatendesProduktsgemessen,jenachdem,waszuersteintritt.

DISTRIAWARD 2024 GOLD KOMPONENTEN
www.dexxit.de BestellungundBeratungunterTel.09319708496

-betrieb Einzug. Man spricht diesbezüglich auch von AIOps.

Ein wichtiges Feld ist hier die Sicherheit. So verkündete Anfang März den Einbau von KI in sein Betriebssystem Ontap und damit in den Primärspeicher. Erklärtes Ziel: die Abwehr von Ransomware, Erpressungsversuchen und andere auf die Storage gerichtete maliziöse Aktivitäten. Sogar vollkommen unbekannte Angriffsformen sollen mit hoher Wahrscheinlichkeit erkannt werden. Weitere Beispiele: Veeam integriert in seine Backup-Lösungen und -Services eine AI-Engine für die Malware-Detektion. Sie untersucht während der Sicherung Daten-Entropie und Datenerweiterungen, so dass Auffälligkeiten schnell erkannt werden. Auch Commvault hat mit MetallicAI einen entsprechenden Service im Programm, der Malware-Erkennung und Automatisierung kombiniert.

Ein weiteres Einsatzfeld von KI: Die Datenplatzierung kann erheblich von AI profitieren, indem Daten so teuer wie nötig und so günstig wie möglich gespeichert werden. Und dies muss im Grunde für jede Dateneinheit entschieden werden. Bei dieser fortlaufenden Optimierungsaufgabe ist KI ein idealer Helfer. Beispielsweise hat Datacore vor nicht allzu langer Zeit entsprechende Funktionen für die Datacore-Software SAN Symphony angekündigt, die automatisches Platzieren und Verschieben zwischen Storage-Tiers garantiert. Basis der Entscheidungen sind Nutzungsmuster und Richtlinien, die vom Admin formuliert werden müssen. Infinidat liefert seine InfoBox-Systeme inzwischen mit AIOps und einem großen Satz anonymisierter historischer Nutzungsdaten aus anderen Anwenderumgebungen aus. Die in die Systeme integrierte KI sucht schon am ersten Nutzungstag nach bekannten Mustern, indem Nutzungscha-

rakteristik und vorhandene Daten verglichen werden. Sie optimiert sie das Betriebsverhalten auf Basis der jeden Tag dazukommenden Erkenntnisse aus der aktuellen Nutzungsumgebung permanent weiter. Die generierten Einsichten können beispielsweise bei der flexiblen Kapazitäts- und Ressourcenplanung helfen, wie sie etwa bei IoTProjekten mit stark schwankendem Datenanfall nötig ist.

Soll Storage nicht ausfallen, ist vorbeugende Wartung (Predictive Maintenance) absolut sinnvoll. Die Geräte sind dann mit Sensoren versehen, die stetig Daten (natürlich nur mit Einwilligung der Kunden) an eine zentrale KI-Ressource liefern. Diese hat einen riesigen Pool aus aktuellen und historischen Nutzungsdaten zur Verfügung und kann so einschätzen, wann einem System der Breakdown droht. Dann wird gewarnt und repariert oder ausgetauscht, bevor etwas passiert. Flash-Marktführer Pure nutzt mit Pure1 Meta ebenfalls eine KI-Plattform für AIOps für seine Systeme. Funktionen sind hier Upgrade- und Workflow-Planung, intelligente Platzierung, Sicherheit und Datenschutz, Fehlerbehebung und Problembekämpfung. Dazu kommen noch das Energie- und das Abomanagement.

KI steckt schon jetzt in vielen Storage-Produkten und -Services. Es führt also kein Weg um das Thema herum. Neben der Technik könnte aber KIStorage-Fachhändlern, -Integratoren und -Serviceanbietern auch betriebswirtschaftliche Optimierungsmöglichkeiten eröffnen und den Vertrieb ankurbeln.

Autor: Ariane Rüdiger

BEISPIELE FÜR EINSATZFELDER VON KI IM STORAGE-UMFELD:

• Verteilung der Systemlandschaft an Kunden

• Management der Kundensysteme

• KI als Security-Booster für Storage-Betriebssysteme und Backup

• Kosten-optimierte Datenspeicherung

• Optimierung der Ressourcen- und Kapazitätsplanung

• Predictive Maintenance

• Energie- und Abo-Management

32 / DATA STORAGE / KI und Storage

Vogel IT-Medien GmbH

Max-Josef-Metzger-Straße 21, 86157 Augsburg

Tel. 0821/2177-0, Fax 0821/2177-150

eMail: it-business@vogel.de www.it-business.de

www.egoverment.de

Geschäftsführer:

Werner Nieberle, Tobias Teske, Günter Schürger

Co-Publisher: Lilli Kos (-300), (verantwortlich für den Anzeigenteil)

Chefredaktion: Sylvia Lösel (sl)

Chef vom Dienst: Heidi Schuster (hs)

Leitende Redakteure: Margrit Lingner (ml), Dr. Stefan Riedl (sr)

Redaktion: Mihriban Dincel (md), Sophia Kos (sk), Klaus Länger (kl), Barbara Miletic (bm), Lucas Schmidt (ls), Alexander Siegert (as), Ira Zahorsky)

Weitere Mitarbeiter diese Ausgabe: Michael Matzer (mm), Dr. Dietmar Müller (dm), Ariane Rüdiger (ar)

Account Management:

Besa Agaj, David Holliday, Stephanie Steen

eMail: media@vogel.de

Anzeigendisposition:

Mihaela Mikolic (-204) Denise Falloni (-202)

Grafik & Layout: Carin Boehm, Johannes Rath, Udo Scherlin

Titelbild: KI-generiert / Midjourney

EBV: Carin Boehm

Anzeigen-Layout:

Carin Boehm, Johannes Rath, Udo Scherlin

Leserservice / Abo: it-business.de/hilfe oder E-Mail an vertrieb@vogel. de mit Betreff „IT-BUSINESS“. Gerne mit Angabe Ihrer Kundennummer vom Adressetikett: *CS1234567*e

Druck:

Vogel Druck- und Medienservice GmbH

Leibnizstr. 5, 97204 Höchberg

Haftung: Für den Fall, dass Beiträge oder Informationen unzutreffend oder fehlerhaft sind, haftet der Verlag nur beim Nachweis grober Fahrlässigkeit. Für Beiträge, die namentlich gekennzeichnet sind, ist der jeweilige Autor verantwortlich.

Copyright: Vogel IT-Medien GmbH. Alle Rechte vorbehalten. Nachdruck, digitale Verwendung jeder Art, Vervielfältigung nur mit schriftlicher Genehmigung der Redaktion.

Manuskripte: Für unverlangt eingesandte Manuskripte wird keine Haftung übernommen. Sie werden nur zurückgesandt, wenn Rückporto beiliegt.

Der Fachkräftemangel, die Bedrohungslage, NIS2 und vieles mehr sorgen dafür, dass Managed

Vogel IT-Medien, Augsburg, ist eine 100prozentige Tochtergesellschaft der Vogel Communications Group, Würzburg, einem der führenden deutschen Fachinformationsanbieter mit 100+ Fachzeitschriften, 100+ Webportalen, 100+ Business-Events sowie zahlreichen mobilen Angeboten und internationalen Aktivitäten. Seit 1991 gibt Vogel IT-Medien Fachmedien für Entscheider heraus, die mit der Produktion, der Beschaffung oder dem Einsatz von Informationstechnologie beruflich befasst sind. Dabei bietet er neben Print- und Online-Medien auch ein breites Veranstaltungsportfolio an.

Die wichtigsten Angebote des Verlages sind IT-BUSINESS, eGovernment,

bereit.

34 / DATA STORAGE / Rubriken
BigData-Insider, CloudComputing-Insider, DataCenter-Insider, Dev-Insider, IP-Insider, Security-Insider und Storage-Insider.
BAB Distribution GmbH 17 DexxIT GmbH & Co. KG 31 Eset Deutschland GmbH 36 Fujitsu Technology Solutions GmbH 9 IT-BUSINESS 35 Open-E GmbH 33 Seagate Technology 23 TD SYNNEX Germany GmbH & Co. OHG 13 TIM AG 2 Western Digital Deutschland GmbH 5 WORTMANN AG 29 AWS 26 Bytec 6 Cohesity 6, 24 Commvault 6, 18, 30 Concat 26 Cybereason 10 Datacore 6, 30 Dell 6, 14 Eset 10 Fujitsu 6, 26 G Data Cyberdefense 10 Gartner 12 Google 26 HPE 6 IBM 6, 14 IDC 6, 12 Ingram Micro 24 Kiwiko 18 Materna 26 MentIQ 26 Microsoft 6, 26, 30 Netapp 20, 22, 30 Nvidia 6 OpenAI 30 Pure Storage 6, 14, 22 Samsung 20 Scality 6 Seagate 20, 22 Solidigm 20 Sophos 10 Starwind 6 Statista 12, 26 Stormagic 6 Synology 14 TD Synnex 6, 24 TIM 10, 24 Trend Micro 10 Trendforce 24 Veeam 6 Veritas 6 VMware/Broadcom 6 Wakefield Research 24 Western Digital 6, 14
Healthcare Digital,
Der nächste Channel Guide „Managed Services“ erscheint am 13. Mai 2024.
erwähnte Unternehmen Firma Seite Firma Seite Firma Seite Firma Seite
Inserenten Redaktionell
Services boomen.
Dienstleister
den selben
Services-Geschäft
Wo
Doch auch
selbst stehen vor
Herausforderungen: Wie kann ein profitables
aussehen?
lohnt es sich, einzusteigen? Und: Lohnt es sich überhaupt noch? Unser nächster Channel Guide hält Antworten
BILD: KI-GENERIERT / MIDJOURNEY / [M] UDO SCHERLIN

MSP & NIS2 ONLINE KONGRESS 2024

NIS2 und die Zukunft der Managed Service Provider

Entdecken Sie die Zukunft der Managed Service Provider beim Online-Kongress zu NIS2!

Ein renommierter Anwalt wird die rechtlichen Folgen erörtern, gefolgt von Fachvorträgen von Watchguard, Infinigate, Securepoint und Trend Micro. Erfahren Sie, wie MSPs den NIS2-Anforderungen gerecht werden können.

Seien Sie dabei am 14.5.2024!

Sichern Sie sich jetzt Ihren Platz!

Dienstag | 14.05.24 | 13:30 – 16:50 Uhr

Hier geht es zur Anmeldung

BILD: TENPIXELS STOCK ADOBE COM - [M]CARINBOEHM

Flicken

reichtinder IT-Sicherheit nichtaus

Gemeinsam machen wir Ihre Kunden NIS2-READY. eset.de/nis2

Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.