Durch Virtualisierung von Datenkopien lassen sich mehrfache physische Datenkopien vermeiden und gleichzeitig der unternehmensweite Zugriff auf Produktionsdaten verbessern. [...]
Big Data ist jedermanns Lieblingsmodewort und hat viele Debatten entfacht. Der Big-Data-Trend hat das Potenzial, die IT-Branche zu revolutionieren, indem Unternehmen neue Einblicke in Daten gewinnen, die sie bisher ignoriert haben. Viele sehen Big Data als den Heiligen Gral für Unternehmen an. Für Unternehmen ist es der Weg dahin, besser zu verstehen, was ihre Kunden wollen und auf die Wünsche der Kunden angemessen zu reagieren.
In einem Zeitalter, in dem Big Data das Mantra ist und aus Terabytes schnell Petabytes werden, sorgt der Anstieg der Datenmengen dafür, dass die Komplexität und Kosten des Datenmanagements in die Höhe schnellen. Bei der derzeitigen Geschwindigkeit, wird die Welt bis zum Ende dieses Jahres mehr digitale Informationen produzieren, als sie speichern kann.
Herausforderung: Wachstum physischer Datenkopien
Maßgeblich verantwortlich für das Problem der ausufernden Datenmenge ist die Verbreitung physischer Datenkopien. IDC schätzt, dass Datenkopien 60 Prozent des Speichervolumens auf Festplatten beanspruchen. Unternehmen benötigen diese Kopien für die Datensicherung, Anwendungsentwicklung, Einhaltung gesetzlicher Vorschriften, Geschäftsanalyse und Disaster-Recovery-Maßnahmen. IDC zufolge halten Unternehmen bis zu 120 Duplikate von physischen Datenkopien vor und geben für die Verwaltung von Datenkopien 44 Milliarden US-Dollar im Jahr aus.
Viele IT-Experten konzentrieren sich nur darauf, wie sich die Berge von Daten, die durch beabsichtigtes und unbeabsichtigtes Kopieren erzeugt werden, bewältigen lassen. Weit weniger gehen der Ursache für die Datenflut auf den Grund. In gleicher Weise, wie Vorbeugen besser als Heilen ist, sollte es eine Priorität für alle Unternehmen sein, die unkontrollierte Datenverbreitung zu reduzieren.
Lösung: Datenvirtualisierung basierend auf einer Master-Kopie
Datenvirtualisierung entkoppelt die Daten von der bestehenden physischen Infrastruktur, ebenso wie es ein Jahrzehnt zuvor die Virtualisiderung von Server vorgemacht hatte. In der Praxis können durch die Virtualisierung von Datenkopien und die Nutzung einer goldenen Master-Kopie die Speicherkosten um etwa 80 Prozent reduziert werden. Zur gleichen Zeit stehen virtuelle Datenkopien in Produktionsqualität jederzeit unternehmensweit bereit für Anwender, die bestimmte Datensätze gerade benötigen. Dazu gehören zum Beispiel Produktdesigner, Test- und Entwicklungsteams, Backup-Administratoren und Mitarbeiter in Finanzabteilungen, bei Datenanalyse-Teams sowie in der Marketing- und Vertriebsabteilung.
Jede Abteilung kann auf einen vollständigen virtualisierten Datensatz innerhalb kurzer Zeit zugreifen. Dies ist von großem Nutzen für Softwaretests und innovative Entwicklung, da mit einen vollständigen Datensatz gearbeitet werden kann und nicht nur mit einer Teilmenge oder einem Sample.
Darüber hinaus können sich IT-Mitarbeiter statt der traditionellen Aufgabe der Verwaltung der Daten endlich sinnvolleren Aufgaben, die dem Wachstum des Geschäfts dienen, widmen. Ein weiterer Aspekt ist die Einsparung von Ausgaben für Datenmanagement-Lizenzen. Firmen zahlen für eine große Zahl von Backup-Agenten, De-Duplizierungs-Software und WAN (Wide Area Network)-Optimierungstools. Müssen keine Daten kopiert werden, sind auch keine Lizenzen für das Datenmanagement erforderlich.
Durch den Wegfall überflüssiger Datenkopien wird aber insbesondere teure Speicherkapazität reduziert – und mit ihr alle damit verbundenen Management- und Infrastrukturkosten. Das Ergebnis ist ein schlankeres, innovationsfreudiges Unternehmen und eine Verbesserung der Wettbewerbsfähigkeit.
Be the first to comment