Big Data ist nicht das Problem – es sind die Datenkopien

Durch Virtualisierung von Datenkopien lassen sich mehrfache physische Datenkopien vermeiden und gleichzeitig der unternehmensweite Zugriff auf Produktionsdaten verbessern. [...]

Big Data ist jedermanns Lieblingsmodewort und hat viele Debatten entfacht. Der Big-Data-Trend hat das Potenzial, die IT-Branche zu revolutionieren, indem Unternehmen neue Einblicke in Daten gewinnen, die sie bisher ignoriert haben. Viele sehen Big Data als den Heiligen Gral für Unternehmen an. Für Unternehmen ist es der Weg dahin, besser zu verstehen, was ihre Kunden wollen und auf die Wünsche der Kunden angemessen zu reagieren.

In einem Zeitalter, in dem Big Data das Mantra ist und aus Terabytes schnell Petabytes werden, sorgt der Anstieg der Datenmengen dafür, dass die Komplexität und Kosten des Datenmanagements in die Höhe schnellen. Bei der derzeitigen Geschwindigkeit, wird die Welt bis zum Ende dieses Jahres mehr digitale Informationen produzieren, als sie speichern kann.

Herausforderung: Wachstum physischer Datenkopien
Maßgeblich verantwortlich für das Problem der ausufernden Datenmenge ist die Verbreitung physischer Datenkopien. IDC schätzt, dass Datenkopien 60 Prozent des Speichervolumens auf Festplatten beanspruchen. Unternehmen benötigen diese Kopien für die Datensicherung, Anwendungsentwicklung, Einhaltung gesetzlicher Vorschriften, Geschäftsanalyse und Disaster-Recovery-Maßnahmen. IDC zufolge halten Unternehmen bis zu 120 Duplikate von physischen Datenkopien vor und geben für die Verwaltung von Datenkopien 44 Milliarden US-Dollar im Jahr aus.

Viele IT-Experten konzentrieren sich nur darauf, wie sich die Berge von Daten, die durch beabsichtigtes und unbeabsichtigtes Kopieren erzeugt werden, bewältigen lassen. Weit weniger gehen der Ursache für die Datenflut auf den Grund. In gleicher Weise, wie Vorbeugen besser als Heilen ist, sollte es eine Priorität für alle Unternehmen sein, die unkontrollierte Datenverbreitung zu reduzieren.

Lösung: Datenvirtualisierung basierend auf einer Master-Kopie
Datenvirtualisierung entkoppelt die Daten von der bestehenden physischen Infrastruktur, ebenso wie es ein Jahrzehnt zuvor die Virtualisiderung von Server vorgemacht hatte. In der Praxis können durch die Virtualisierung von Datenkopien und die Nutzung einer goldenen Master-Kopie die Speicherkosten um etwa 80 Prozent reduziert werden. Zur gleichen Zeit stehen virtuelle Datenkopien in Produktionsqualität jederzeit unternehmensweit bereit für Anwender, die bestimmte Datensätze gerade benötigen. Dazu gehören zum Beispiel Produktdesigner, Test- und Entwicklungsteams, Backup-Administratoren und Mitarbeiter in Finanzabteilungen, bei Datenanalyse-Teams sowie in der Marketing- und Vertriebsabteilung.
Jede Abteilung kann auf einen vollständigen virtualisierten Datensatz innerhalb kurzer Zeit zugreifen. Dies ist von großem Nutzen für Softwaretests und innovative Entwicklung, da mit einen vollständigen Datensatz gearbeitet werden kann und nicht nur mit einer Teilmenge oder einem Sample.
Darüber hinaus können sich IT-Mitarbeiter statt der traditionellen Aufgabe der Verwaltung der Daten endlich sinnvolleren Aufgaben, die dem Wachstum des Geschäfts dienen, widmen. Ein weiterer Aspekt ist die Einsparung von Ausgaben für Datenmanagement-Lizenzen. Firmen zahlen für eine große Zahl von Backup-Agenten, De-Duplizierungs-Software und WAN (Wide Area Network)-Optimierungstools. Müssen keine Daten kopiert werden, sind auch keine Lizenzen für das Datenmanagement erforderlich.
Durch den Wegfall überflüssiger Datenkopien wird aber insbesondere teure Speicherkapazität reduziert – und mit ihr alle damit verbundenen Management- und Infrastrukturkosten. Das Ergebnis ist ein schlankeres, innovationsfreudiges Unternehmen und eine Verbesserung der Wettbewerbsfähigkeit.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*