Silver Peak Systems: Datendeduplizierung ist kein Privileg von Storage-Systemen

Das Deduplizieren von Daten ist keine neue Technik. Bei Bandlaufwerken, die immer noch viele Unternehmen für die Datensicherung verwenden, ist "Deduplication" seit vielen Jahren im Einsatz. [...]

„Doch nun rückt Deduplizierung stärker in den Mittelpunkt des Interesses von IT-Fachleuten“, erläutert Jeff Aaron, Vice President Marketing bei Softwareanbieter Silver Peak Systems. „Ein Grund dafür ist, dass sich die Datenbestände drastisch vermehren und dadurch die Kosten für deren Speicherung steigen.“

Wie rasant diese Entwicklung verläuft, hat das Marktforschungsinstitut IDC errechnet: Demnach wurden im Jahr 2011 weltweit 1,5 Zettabyte an elektronischen Informationen erzeugt und gespeichert. In sieben Jahren sollen es laut IDC 50 Mal so viel sein. Kein Wunder, dass IT-Manager nach Wegen suchen, um diese Datenflut zu „zähmen“. Ein Mittel besteht darin, mehrfach vorhandene Informationen auf Datei-, Block- oder Byte-Ebene zu deduplizieren. Dabei werden die Originaldaten durch Zeiger (Pointer) ersetzt. Das Resultat: Das Datenvolumen lässt sich je nach Art der Informationen bis um dem Faktor 20 reduzieren. „Bei Virtual Machines, die auf denselben Templates beruhen, sind in der Praxis sogar Werte von bis zu 1:50 möglich“, so Jeff Aaron.

Ein Trend im Bereich Deduplizierung ist, dass Storage-Systeme verstärkt dazu übergehen, Informationen „live“ auf doppelte Dateien hin zu untersuchen. Das können E-Mails mit ähnlichen Inhalten oder mit identischen Attachments sein, aber auch CAD/CAM-Dateien, bei denen häufig nur Details geändert werden.

Nicht vergessen werden sollte im Zusammenhang mit Deduplication laut Silver Peak Systems auch ein weiterer Faktor: Deduplizierung ist keine Technologie, die alleine Storage- und Backup-Systeme vorbehalten ist. Mindestens ebenso wichtig ist es, Datenbestände zu reduzieren, bevor sie über eine Weitverkehrsstrecke (WAN) transportiert werden.

Daher setzen WAN-Optimierungslösungen wie etwa jene von Silver Peak Systems ebenfalls Deduplizierungstechnologien ein. Damit lassen sich die Datenmengen, die über eine Weitverkehrstrecke transportiert werden, teilweise deutlich verringern. Diese Reduktion der Informationsmenge wiederum ist die Grundlage für eine Vielzahl von Anwendungen, die an Bedeutung gewinnen. Dazu zählen das Replizieren von Daten zwischen mehreren Rechenzentren oder zwischen Außenstellen und Firmenzentrale, der Zugriff auf virtualisierte Desktops und die Analyse von großen Datenmengen, Stichwort Big Data. Auch Cloud Computing ist ohne Deduplication ein kostspieliges Vergnügen. (pi)


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*