Data Storage im Cloud-Zeitalter

Warum das Thema Datenspeicherung noch immer kein alter Hut ist und nahezu alle Unternehmen permanent beschäftigt, das hat vor allem einen Grund: das Wachstum des Internets. [...]

Foto: Akela999/Pixabay

Die schiere Menge der in den letzten Jahren erzeugten Daten ist einfach enorm. Schätzungen gehen davon aus, dass 3,7 Milliarden Menschen täglich das Internet nutzen und zusammen über 2,5 Quintillionen Bytes an Daten pro Tag erzeugen. Bis 2025 werden wir gemeinsam über 160 Zettabytes an Daten auf dem gesamten Planeten speichern. Ein Zettabyte entspricht unvorstellbaren 1.000.000.000.000.000.000.000 Bytes an Daten.

Einige dieser Daten sind wahrscheinlich für ein Unternehmen nützlich, andere nicht. Einige davon werden Unternehmen behalten wollen, andere nicht. Wenn sie sich dafür entscheiden, sie zu behalten, müssen sie diese irgendwo speichern. Aber das dürfte doch kein Problem sein, oder doch?

Stefan Käser, Solution Architect bei DoubleCloud, skizziert die Datenspeicherung der Zukunft und welche Fragen dabei zu bedenken sind:

„Tatsächlich mag es vielleicht überraschend sein, dass eine Datenspeicherkrise bevorsteht. Wenn wir weiterhin so viele Daten erzeugen wie bisher, werden wir keinen Platz mehr haben, um sie zu speichern. Die Speicherung so vieler Daten im gleichen Format wie bisher wird einfach zu teuer oder zu ressourcenintensiv sein, um sie auf sinnvolle Weise zu verarbeiten.

Von der gesamten Energie, die weltweit auf den Betrieb von Technik entfällt, entfallen derzeit etwa 20 Prozent auf Rechenzentren. Ein einziges Rechenzentrum kann an einem Tag mehr Energie verbrauchen als eine Stadt in einem Industrieland.

Zudem ist es eindeutig nicht nachhaltig, 112 Fotos von einer zufälligen Partynacht zu speichern, die jemand vor sechs Jahren erlebt hatte.

Was ist der aktuelle Stand der Datenspeichertechnologie?

Haben wir überhaupt eine Alternative? Nun, eigentlich ja, denn einige sehr kluge Leute arbeiten an Lösungen für dieses Problem. Natürlich ist der Versuch, die Zukunft zu erraten, nie eine exakte Wissenschaft, aber das bedeutet nicht, dass wir nicht bestimmte weitreichende Trends betrachten können, die sich auf Rechenzentren und den Datensektor als Ganzes auswirken, um einige fundierte Vermutungen über die Zukunft der Datenspeicherung anzustellen.

Es gibt vier sehr unterschiedliche, aber alle gleich wichtige Faktoren, die derzeit die Entwicklung der Datenspeicherung vorantreiben.

  • Kosten
  • Kapazität
  • Schnittstellengeschwindigkeiten
  • Dichte

Jede aktuelle (oder zukünftige) Speicherlösung versucht, allen vier Faktoren mit unterschiedlichem Erfolg gerecht zu werden.

1. Klassische Festplattenlaufwerke

Festplatten werden in absehbarer Zeit nicht verschwinden. Jüngsten Prognosen zufolge werden bis 2024 etwa 54 Prozent aller Daten auf Festplatten gespeichert sein. Das ist zwar ein deutlicher Rückgang gegenüber dem Marktanteil von 65 Prozent im Jahr 2019, aber, wenn man es als Teil einer Umstellung auf die ständig wachsende Datenmenge betrachtet, ist es tatsächlich viel sinnvoller.

Dennoch sind viele Experten der Meinung, dass Flash die Vorherrschaft der HDD zumindest in kleineren Rechenzentren beenden könnte und stattdessen auf ein Hybrid-/Flash-/Cloud-Modell umgestellt wird – wir müssen also abwarten, was die Zukunft für die Festplatte bereithält.

2. SDDs

Der SSD-Speichersektor wird wahrscheinlich weiterhin stetig wachsen, da die Technologie hinter den Schnittstellen immer besser wird. Derzeit werden Quad-Level-Zellen (Quadruple-Level Cells, QLC) als eine weitere Ebene in der Datenspeicherhierarchie weithin angenommen, da sie mehr Kapazität zu viel niedrigeren Kosten bieten.

Es ist aber wahrscheinlich, dass die QLC-Technologie in den nächsten paar Jahren bereits Penta-Level-Zellen (Penta-Level Cells, PLC) weichen wird.

3. Multi-Cloud-Speicher

Viele Rechenzentren stellen bereits fest, dass ihre Kunden immer vorsichtiger werden, wenn es darum geht, alle ihre Daten an einem Ort zu speichern. So wie man nie alles auf eine Karte setzen sollte, suchen viele, die sich um Datenredundanz, Backups und Disaster Recovery sorgen, nach Multi-Cloud-Lösungen.

Bei der Erstellung eines Backups für die Daten ist es sinnvoll, diese auf separaten, möglichst isolierten Systemen zu speichern, was mit Multi-Cloud-Lösungen derzeit sehr gut gelingt.

Die Zukunft der Datenspeicherung

Solange es keinen Trend zur Entsorgung redundanter Daten gibt, muss etwas geschehen. Die Alternative besteht darin, effizientere Speicherarten zu entwickeln: Speicher, die exponentiell mehr Daten zu viel niedrigeren Kosten verarbeiten können und den Nutzern dennoch einen fast sofortigen Zugriff darauf ermöglichen.

Glücklicherweise wird bereits an diesen Methoden geforscht, und auch wenn sie noch nicht ganz ausgereift sind, könnten es schon bald soweit sein.

1. Kalte Speicherung

Cold Storage, die Speicherung von Daten bei extrem niedrigen Temperaturen, wird derzeit als interessante Speichermöglichkeit untersucht. Forscher an der Universität Manchester haben Moleküle entwickelt, die Daten mit der hundertfachen Kapazität einer herkömmlichen Festplatte speichern können.

Die Idee, Daten bei niedrigen Temperaturen zu speichern, ist nicht neu, die Wissenschaft dahinter ist schon seit einiger Zeit bekannt. Das Neue an dieser Forschung ist jedoch, wie niedrig die Temperaturen dank der Widerstandsfähigkeit dieser neuen Moleküle werden. S

ie sind in der Lage, Daten bei 80 Kelvin (- 193,15 Grad) zu speichern, wobei die Verwendung von flüssigem Stickstoff bedeutet, dass mehr Daten gespeichert werden können, ohne dass es zu Problemen mit der Wärmeverschiebung kommt. Da die Erdatmosphäre zu etwa 78 Prozent aus Stickstoff besteht, ist dies auch eine relativ kostengünstige Lösung.

2. Optische 5D-Speicherung

Anstelle der Kältespeicherung haben Forscher der Universität Southampton Methoden zur Datenspeicherung erforscht, bei denen die Daten mit modernen Lasern in Siliziumwürfel geätzt werden.

Bei dieser neuen Technik können die Forscher zusätzlich zu den normalen drei Achsen, die als Speicherparameter verwendet werden, auch die Größe eines aufgezeichneten Datensatzes und seine Ausrichtung nutzen.

Man kann sich das als eine Art 3D-Version einer CD vorstellen, bei der die Geräte die Daten direkt aus dem Würfel lesen. Der Vorteil dieser Methode besteht darin, dass alles, was auf diese Weise gespeichert wird, sehr lange gespeichert werden kann, wobei alles, was geätzt wird, fast dauerhaft wird.

Wenn die Daten einmal gespeichert sind, ist kein Strom mehr erforderlich, um sie aufzubewahren (nur noch zum Lesen), und die entstehenden Glaswürfel sind praktisch unzerstörbar, wobei ein kleiner Würfel Hunderte von Terabytes an Daten speichern kann.

3. Quantenspeicher

Es wäre nachlässig, die Zukunft der Datenspeicherung zu erörtern, ohne zumindest Quantencomputer und Quantenspeicher zu erwähnen. In der Welt der Informatik, der Daten und der Welt im Allgemeinen wird viel über das Potenzial der Quanteninformatik gesprochen.

Qubits in der Quantendatenspeicherung sind in der Lage, durch Überlagerung und Verschränkung eine exponentielle Anzahl von Zuständen zu speichern. n-Qubits sind vergleichbar mit 2n Bits oder, um es für alle, die mit dem Jargon der Quanteninformatik nicht vertraut sind, etwas verständlicher auszudrücken: 100 Qubits wären mehr als genug, um mehr Zustände zu speichern als alle derzeit existierenden Festplatten. 300 Qubits könnten mehr Zustände speichern als die Anzahl der Atome im Universum.

Leider sind wir noch weit davon entfernt, die drohende Datenkrise mit Quantencomputern zu lösen. Das Hauptproblem der Quanteninformatik besteht darin, dass die Datenmenge, die aus n-Qubits abgerufen werden kann, niemals größer sein kann als die Datenmenge, die aus n-Bits abgerufen werden kann.

Dies bedeutet, dass die meisten Daten, die auf Quantenebene gespeichert werden, niemals abgerufen werden können – ein Problem, das noch nicht gelöst wurde. Möglicherweise bedeutet dieses Hindernis, dass die Quanteninformatik zwar die Zukunft ist, die Quantenspeicherung jedoch nicht.

4. DNA-Speicherung

Viele Wissenschaftler haben sich in den letzten zehn Jahren für die Idee begeistert, DNA als Datenspeicher zu verwenden. Die Idee ist gar nicht so weit hergeholt. Die DNS besteht aus Aminosäuren mit Basenpaaren, die, wenn sie richtig modelliert sind, einen binären Code darstellen können, was sie ideal für die Speicherung von Daten macht, während die gewundene Struktur der DNS eine enorme Speicherkapazität auf kleinstem Raum ermöglicht.

Einem Team in Harvard ist es sogar gelungen, den gesamten Code für ein Video auf einem einzigen Strang bakterieller DNA zu speichern. Seitdem arbeiten mehrere Unternehmen daran, diese Technologie zu perfektionieren und dann zu vermarkten.

Derzeit geht man davon aus, dass synthetische DNA die Antwort sein könnte, wobei die Daten auf ein Molekül geschrieben werden, während es zusammengesetzt wird. Wie bei dem bereits erwähnten optischen 5D-Speicher aus geätztem Glas könnte sich dies als Langzeitspeicherlösung erweisen, aber ganz so weit ist die Sache noch nicht.

5. Hybrid-Cloud-Speicherung

Hybrid-Cloud-Speicherung mag zwar nicht so futuristisch, Science-Fiction-mäßig oder interessant erscheinen wie einige der bisher genannten Lösungen. Sie erobert aber derzeit den Datenspeichersektor und bietet eine echte Lösung für viele Datenspeicherprobleme.

Die Hybridspeicherung ist, wie der Name schon sagt, ein Ansatz zur Datenspeicherung, der sowohl Cloud- als auch On-Premises-Lösungen nutzt und das Beste aus beiden in einer zusammenhängenden Speicherarchitektur kombiniert.

Dieser Ansatz senkt die Kosten für Unternehmen, indem er einen Teil der Kosten für das Hinzufügen und die Wartung von lokalem Speicher in die Cloud verlagert und die Cloud nur dann nutzt, wenn sie benötigt wird.

Es handelt sich außerdem um eine der skalierbarsten Lösungen, die derzeit angeboten werden, da sie das Beste aus Cloud- und On-Premises-Infrastrukturen bietet. Die On-Premises-Infrastruktur dient dann für langfristige, selten genutzte Daten, während die Cloud für häufiger genutzte Daten oder unerwartete Nachfragespitzen ausgelegt werden kann.

Eines der Probleme, die oft mit hybrider Speicherung aufgeworfen werden, ist, dass sie bei falscher Architektur sowohl teuer als auch langsam sein kann und Geld kostet, sowohl für die Hardware vor Ort als auch für unerwartete Cloud-Kosten.

Eine Lösung bietet hier beispielsweise DoubleCloud, um Datenanalysen mit SSD-Speichergeschwindigkeiten aufzubauen und trotzdem das S3-Preisniveau beizubehalten. Mit der verwalteten ClickHouse-Plattform können Unternehmen sogar mehr als das Fünffache an Kosten einsparen, indem sie ihre neuesten oder am häufigsten genutzten Daten automatisch direkt auf SSD auslagern, während die weniger häufig genutzten Daten automatisch auf S3 umgelagert werden.

Ansätze wie dieser tragen dazu bei, dass Problem der Datenspeicherung auf kosteneffiziente Weise dauerhaft in den Griff zu bekommen.

powered by www.it-daily.net


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*