Nanotechnologie löst Flashspeicher bis 2020 ab

Racetrack-Speicher auf Basis von Nanotechnologie sind laut eco – Verband der deutschen Internetwirtschaft der Schlüssel zur Bewältigung der globalen Datenflut. [...]

Der weltweit rapide wachsende Speicherbedarf stellt Festplattenhersteller, Unternehmen und Rechenzentren vor immer größere Herausforderungen. Der Verband eco, Zusammenschluss der deutschen Internetwirtschaft, ist überzeugt, dass „Racetrack-Speicher“ die Lösung dieser Probleme darstellen wird.

Laut Béla Waldhauser, Leiter der Datacenter Expert Group beim eco Verband, spielen dabei vor allem innovative Technologien eine zentrale Rolle: „Verglichen mit heutigen Flashspeichern ermöglichen moderne Nanotechnologien das Hundertfache der aktuell möglichen Speicherdichte und extrem kurze Zugriffszeiten. Die ersten nanobasierten ‘Racetrack-Speicher‘ werden schon 2020 serienreif sein und bisherige Speicherarchitekturen kontinuierlich ablösen.“

Bislang ist Racetrack-Speicher freilich nur ein Konzept von Speicher mit einer magnetoelektronischen Arbeitsweise. Es wurde von Stuart Parkin und seinem Team bei der Firma IBM entwickelt. Laut Wikipedia speichert Racetrack-Speicher „die einzelnen Speicherbits in Nanodrähten aus ferromagnetischem Material. Die Information wird in Form von gegensätzlich magnetisierten Regionen (Domänen) in den Nanodrähten gespeichert, wobei zwischen 10 und 100 Bits in einem Nanodraht untergebracht werden können. Die Bits liegen in diesen Drähten nebeneinander wie auf einem Tonband vor und müssen zum Lesen oder Neuschreiben seriell an einer Lesestation vorbeigeschoben werden.“

Als Gründe für den in den nächsten Jahren massiv ansteigenden Speicherhunger sehen die eco-Experten verschiedene Faktoren. Durch die stark wachsende Nutzung von cloudbasierenden Diensten müssen etwa Rechenzentren weltweit immer größere Datenmengen speichern und verarbeiten. Auch der zunehmende M2M-Trend (Machine to Machine) und das „Internet der Dinge“ werden die globale Datenflut verstärken: Aktuelle Einschätzungen erwarten bis 2020 weltweit mehr als 50 Milliarden mit dem Internet verknüpfte Geräte – inklusive dem kontinuierlichen Sammeln und Austauschen von Daten. Waldhauser ist überzeugt: „Aktuelle Speichertechnologien stoßen in Sachen Datendichte bereits heute an ihre Grenzen. Um langfristig mit den enormen Datenmengen zurechtzukommen, sind neue Technologien und konstante Innovationen ein absolutes Muss.“

Welche enormen Fortschritte die Speichertechnologie allein in den vergangenen Jahrzehnten gemacht hat, stellte zuletzt der bekannte Physiker und Star Trek-Experte Professor Metin Tolan im Rahmen eines Vortrages auf dem eco Kongress 2014 vor: So sind die damals utopisch anmutenden Speichermedien der 60er-Jahre-Enterprise aus dem fiktiven Jahr 2200 bereits heute bei weitem überholt. „Festplatten fassen heute rund 100 Millionen Mal (10 hoch 8) mehr Daten pro Fläche als noch vor 50 Jahren. Hochgerechnet bis zum realen Jahr 2200 erreichen zukünftige Datenträger verglichen mit jenen der 60er und 70er Jahre eine Speicherdichte mit dem Faktor 10 hoch 20 – kein Vergleich zu den Speicherkapazitäten, die Mr. Spock zur Verfügung standen.“ (pi/rnf)


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*