Hitachi Vantara: Wege aus der Speicherkrise
Wir ertrinken in Daten – und Unternehmensdaten nehmen bald schon den grössten Teil davon ein. Im vergangenen Jahr beliefen sich die weltweiten Datenbestände einer Erhebung der Analysten von IDC auf etwa 40 Zettabytes. Bis 2025 wird sich diese Menge auf 175 Zettabytes mehr als vervierfachen (Quelle: Data Age 2025, IDC White Paper, Nov. 2018). Lag der Anteil der Unternehmensdaten an der Gesamtmenge 2015 noch bei etwa 30 Prozent, wird für 2025 eine Verdopplung (des Anteils, nicht der Menge) auf 60 Prozent prognostiziert. Mengenmässig entspricht dies etwa Faktor 9 (von 12 auf 105 Zettabytes).
Wo ist das Problem?
… werden jetzt einige denken, denn Storage wird immer günstiger und leistungsfähiger und steht zudem im Überfluss zur Verfügung. Diese Beobachtung ist generell richtig, greift aber zu kurz. In der Hardware-Realität wird die benötigte Kapazität nicht bereitgestellt werden können, wenn nicht wider Erwarten noch revolutionäre neue Technologien aus dem Hut gezaubert werden.
Ein Blick auf die aktuellen Liefermengen hilft, die Situation nachzuvollziehen: Im Zeitraum bis 2025 werden den erwähnten Prognosen zufolge 135 Zettabytes an neuem Speicher benötigt. Dem steht eine prognostizierte Liefermenge von 21,9 Zettabytes Storage gegenüber. Die Lücke ist gigantisch. Üblicherweise gehen Marktteilnehmer davon aus, dass der Markt Angebot und Nachfrage regelt. Wenn also mehr Speicher nachgefragt wird, kurbeln die Hersteller ihre Produktion an. Passt! Leider nicht. Bis 2018 haben die grossen Anbieter von Flash-Speichermodulen Intel, Micron, SK Hynix und Samsung, einen boomenden Markt bedient. Im vergangenen Jahr sind die Preise aber aufgrund eines Überangebotes in den Keller gerutscht, weshalb alle ihre Produktion zurückgefahren haben. Es wird kaum möglich sein, in kurzer Zeit das Ruder wieder herumzureissen und viele Zettabytes an zusätzlicher Kapazität zu produzieren.
Speicher wird ein knappes Gut
Blieben noch klassische Festplatten. Technologisch betrachtet handelt es sich dabei aber zweifellos um Auslaufmodelle, die zudem teuer in der Entwicklung und Produktion sind. Einige wenige Hersteller investieren noch in die Entwicklung neuer Platten, aber meines Wissens keiner in neue Produktionsanlagen. Die alten Fabriken werden noch bis an das Ende des Lifecycles genutzt, aber irgendwann in naher Zukunft gehen für die Festplattenproduktion nach und nach die Lichter aus.
Investiert wird dafür in immer leistungsfähigere Halbleiter-Chips mit immer kleineren Strukturgrössen. AMD hat im vergangenen Jahr mit seiner aktuellen Prozessorgeneration die Messlatte sehr hoch (oder niedrig?) gehängt, die Chips weisen Strukturen im Bereich von 7 Nanometern auf. Der weltgrösste Vertragshersteller für Prozessoren aller Art Taiwan Semiconductor Manufacturing Company (TSMC) will noch in diesem Jahr 5-Nanometer-Chips für den Massenmarkt produzieren und entwickelt Strukturen im Bereich von 2 Nanometern, das entspricht etwa 8 nebeneinander liegenden Atomen. Hält man sich vor Augen, dass ein Coronavirus wie Sars-Cov2 zwischen 120 und 160 Nanometer gross ist, wird klar, dass von weiterer Miniaturisierung keine grossen Sprünge mehr erwartet werden können. Spätestens auf der atomaren Ebene ist nach den Regeln der modernen Physik Schluss.
Und wie sieht es mit revolutionären, neuen Entwicklungen aus? Aktuell sehen wir einige spannende Ansätze, die aber allesamt weit von einem Praxiseinsatz entfernt sind, etwa organische Kristalle oder DNA. Insbesondere die Verwendung von Erbgut als Datenträger ist eine sehr vielversprechende Idee. Ein Zettabyte Daten könnte theoretisch in einem Gramm DNA gespeichert werden, damit würde der Datenbestand von 2025 locker in einer Kaffeetasse Platz finden. Aber mit der aktuell modernsten, verfügbaren Technologie würde es mehrere Monate dauern und Hunderttausende von Euro kosten, die Menge DNA einer einzigen Zelle eines Koli-Bakteriums synthetisch herzustellen. Das Bakterium selbst schafft das kostenlos in etwa 20 Minuten.
Kopien löschen könnte helfen
Von der Hardware-Seite ist also keine Lösung der Knappheit zu erwarten. Unternehmen sollten daher auf Software und organisatorische Änderungen setzen. Der sicherlich smarteste Weg besteht in einer Reduzierung der Datenbestände. Mit Hitachi-Technologien lassen sich beispielsweise durch intelligente Datendeduplizierung im Verhältnis 4:1 bereits rund 75 Prozent der Speicherkapazität freigeben.
Ein noch grösserer Effekt lässt sich erzielen, wenn die vielen im Unternehmen schlummernden oder herrenlosen Datenkopien aus dem Verkehr gezogen werden. Das Ausmass ist erheblich: Schätzungen gehen davon aus, dass etwa zwei Drittel der Kapazitäten externer Speichersysteme heute nicht durch Primärdaten belegt sind, sondern von Snapshots, Klonen, Archiven oder Backup-Daten. Für Datensicherung und -wiederherstellung werden nicht selten bis zu 20 Kopien angelegt. Ein Grund dafür ist, dass Anwendungen und Daten immer enger zusammenwachsen und beispielsweise Datenkopien für die Verarbeitung über Computer-Cluster hinweg verteilt werden. Das bringt aber auch den unangenehmen Nebeneffekt mit sich, dass etwa DSGVO-induzierte Löschanfragen nur schwer durchführ- und dokumentierbar sind.
Mit DataOps aus der Storage-Krise
Auch nach dem Ausmisten der Unternehmensdaten ist das Datenmanagement extrem komplex – und angesichts wachsender Datenmengen wird sich das auch nicht ändern. Der aktuell beste Lösungsansatz – eine Kombination aus Hardware, Software und intelligentem Datenmanagement – wird mit dem Begriff DataOps bezeichnet. Sein Ziel ist vor allem, mehr Transparenz über die Storage-Landschaft zu erhalten und die Notwendigkeit von Datenkopien zu reduzieren. Technisch bietet sich dafür Objektspeichertechnologie an, sie bringt den besten Mix aus Performance, Skalierbarkeit und Kosteneffizienz mit sich. Metadaten helfen bei der Versionierung von Daten und der Filterung beispielsweise für Compliance-Anforderungen. Mit Snapshot-Technologie lassen sich Zustände praktisch einfrieren, was gegenüber klassischen Backups deutlich weniger Platz benötigt und eine erheblich einfachere Wiederherstellung von Dateien ermöglicht. Snapshots können auch in Testumgebungen eingesetzt werden, weil nicht die eigentlichen Primärdaten verändert werden, sondern lediglich die Metadaten.
Objektspeicher ermöglichen es Unternehmen auch, Anwendungen spezifischen Speicherklassen zuzuordnen. Eine produktive Datenbank kann dann schnelle NVMe-ssDs nutzen, während selten genutzte Archivdaten auch auf langsam drehenden Festplatten liegen können, die deutlich mehr Kapazität für den eingesetzten Euro bringen. Voraussetzung für all dies ist aber eine Software, die dabei mitspielt. Hitachi Vantara hat dazu mit eine Management-Umgebung und ein Speicherbetriebssystem entwickelt, die als Verwaltungsebene oberhalb der Storage-Hardware nicht nur eigene, sondern auch Fremdsysteme einbinden oder als Basis für Multi-Cloud-Umgebungen dienen können.
Die enthaltene künstliche Intelligenz passt sich an veränderte Bedingungen an, um die Workload-Performance zu optimieren, Speicherkosten zu senken und Fehler vorherzusagen. Dadurch können bis zu 70 Prozent der Aufgaben in Infrastrukturmanagement und Betrieb automatisiert ablaufen. Zusätzlich erhalten Admins schnellere und genauere Einblicke, um den Systemzustand zu diagnostizieren und den Datenbetrieb im Top-Zustand zu halten. Diese sehr präzisen Predictive- und Automatisierungs-Tools für Unternehmen sind die beste Art und Weise, Datenbestände effizient zu managen – zumindest so lange, bis DNA-Speicher und andere Science-Fiction-Ansätze die Marktreife erlangt haben. Womit allerdings in naher Zukunft nicht zu rechnen sein wird. (Hitachi Vantara/mc/ps)
*Jürgen A. Krebs ist seit Juli 2004 bei Hitachi Vantara tätig und verantwortet seit 2016 das CTO Office für die Central Region. Mit Hilfe seiner umfangreichen Branchenerfahrung von mehr als 35 Jahren gestaltet er die strategische Ausrichtung von Hitachi Vantara mit Fokus auf die Kernkompetenzen des Unternehmens. Der begeisterte Techniker beschäftigt sich in seiner Freizeit leidenschaftlich mit jeglicher Art von Elektronik, Motorenbearbeitung und dem Motocross.