Die Rückverlagerung von Daten aus der Cloud nimmt Fahrt auf

Massives Datenwachstum, steigende Kosten für Cloud-Dienste und der Wunsch nach mehr Flexibilität geben dem Hosting von Daten und Workloads vor Ort neuen Auftrieb. [...]

(Quelle: Quantum Corporation)

Die Vorteile von Cloud Computing sind unbestritten. Die Akzeptanz hat innerhalb des letzten Jahrzehnts rapide zugenommen. Einen großen Schub gab es in den vergangenen drei Jahren, als IT-Modernisierung und Remote-Arbeit viele Unternehmen regelrecht in die Cloud trieb.

Während einige Workloads in der Cloud gut aufgehoben sind, stellen viele Unternehmen nun fest, dass ihre Daten und Workloads teilweise im eigenen Rechenzentrum besser aufgehoben wären. Folgerichtig setzen viele Unternehmen heute auf einen hybriden oder Multi-Cloud-Ansatz.

Vor diesem Hintergrund hat sich die Rückverlagerung von Daten aus der Cloud in jüngster Vergangenheit zu einem wachsenden Trend entwickelt.

Die Kosten für Cloud-Computing steigen

Während die Public Cloud für bestimmte Anwendungsfälle kosteneffizient sein kann, hat sie im Allgemeinen zu höheren Kosten für Unternehmen geführt, die Daten und Workloads in die Public Cloud verlagert haben.

Es gibt viele gute Gründe, warum Cloud-Dienste teurer geworden sind. Steigende Kosten, höhere Nachfrage oder wachsende Komplexität sind allesamt verständliche Gründe. Ein Hauptgrund, für die enorm gestiegenen Cloud-Budgets liegt jedoch darin, dass die Kosten für die Speicherung in einer Public Cloud aufgrund von Ausstiegs- oder anderen Servicegebühren unvorhersehbar geworden sind.

Am Ende zahlen viele Unternehmen viel mehr für ihre Cloud-Dienste, als sie erwartet oder veranschlagt hatten. Um die Kosten zu senken und besser planbar zu gestalten, sehen sich die Unternehmen nach anderen Optionen um.

Unternehmen brauchen mehr Flexibilität in der Cloud

In einer perfekten Cloud-Welt könnten die Kunden ihre ideale Konfiguration einfach auswählen und ihre Daten und Workloads flexibel zwischen den Ebenen des von ihnen gewählten Multi-Cloud-Ökosystems verschieben. Das ist jedoch alles andere als einfach. Zum einen haben die Anbieter von Public Clouds die Kunden und ihre Daten erfolgreich an ihre Plattformen gebunden.

Die Preislisten der Anbieter sind so strukturiert, dass es günstig ist, Daten in die Cloud hochzuladen, aber unvergleichlich teurer, sie wieder herunterzuladen. Da die Datenmengen immer weiter anwachsen, vor allem bei immer größeren Dateien unstrukturierter Daten, ist die Speicherung und Verarbeitung in der Cloud sehr teuer geworden.

Zum anderen zwingt das Phänomen der „Data Gravity“ Unternehmen dazu, ihre Daten und Workloads in der Nähe zu halten. Und es kristallisiert sich heraus, dass ein Teil der Daten eines Unternehmens im Rechenzentrum verbleiben und nicht in die Cloud verlagert werden sollte, da es Bedenken hinsichtlich der Implementierung von Cloud-Speicher, der Datenhoheit und der Sicherheit gibt.

Um diese Probleme zu lösen und ihre Cloud-Einrichtung zu verbessern, vergleichen Unternehmen alle Optionen, wo ihre Daten und Workloads idealerweise untergebracht werden könnten. Dabei kommen sie unweigerlich zu dem Schluss, dass ein Teil ihrer Cloud-Workloads wieder lokal angesiedelt werden sollte, da dies einen höheren ROI verspricht.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen
Ein (englisches) Video von Quantum, bei dem das Konzept der „Cold Storage“ erklärt wird. (Video: YouTube)

Eine vollständige Rückführung aus der Cloud ist wenig sinnvoll

Mehrere Faktoren beeinflussen die Entscheidung für eine Rückverlagerung aus der Cloud ins eigene Rechenzentrum. Auf der Speicherebene bietet das Aufkommen der Objektspeicherung auf preiswerten Bändern den Unternehmen ein verlockendes Argument für die Rückverlagerung geeigneter Daten auf ihre eigene Hardware.

Die Renaissance des Bandspeichers kommt zu einer Zeit, in der sich die Speicherlandschaft von der Plattenspeicherung hin zu einer Speicherstrategie mit zwei Hauptebenen entwickelt: einer schnellen Flash-Ebene für Hochleistungs-Workloads und einer Bandebene als kostengünstiger Massenspeicher.

Eine vollständige Rückführung von Daten und Workloads aus der Public Cloud ist für die meisten Unternehmen jedoch wenig sinnvoll, ebenso wie eine reine Cloud-Strategie weder wirtschaftlich noch praktikabel ist. In der Vergangenheit entschieden sich Unternehmen bewusst dafür, die zusätzlichen Kosten für den Betrieb von Anwendungen in Public Clouds in Kauf zu nehmen, um Flexibilität und Skalierbarkeit zu erhalten.

Unternehmen, die aktiv nach Möglichkeiten einer besseren Datenportabilität suchen, sehen die Beweglichkeit sowohl auf der Hardware- als auch auf der Softwareebene als essentielle Komponente an. Nur mit einem flexiblen Gesamtsystem werden sie in der Lage sein, den optimalen Infrastruktur-Mix zu finden, einschließlich der Rückführung von Daten und Workloads zurück auf lokale Hardware, was einen „Nettogewinn“ an ROI brächte.

Workloads und Daten sinnvoll platzieren

Für einen höheren ROI brauchen Unternehmen mehr Flexibilität im Rechenzentrum. Der Aufbau von Hybrid- und Multi-Cloud-Umgebungen ermöglicht es Ihnen, ihre Workloads und Daten dort zu platzieren, wo es den meisten Sinn ergibt. Für einige Daten und Workloads bedeutet dies, dass sie aus der Public Cloud zurück ins Rechenzentrum verlagert werden, wo sie sich wesentlich kostengünstiger speichern lassen.

Die Verfügbarkeit von NVMe als performante Flash-Speicher für Hochleistungs-Workloads bietet eine weitere Ebene der Flexibilität. Und für spezielle Anwendungsfälle, wie PaaS-Lösungen, eignet sich die Plattform eines Hyperscalers möglicherweise am besten.

Fazit: Unternehmen wählen Cloud-Flexibilität

Um von den Vorteilen des Cloud-Computings zu profitieren, benötigen Unternehmen heute ein Höchstmaß an Flexibilität, um für jeden Anwendungsfall die am besten geeignete Infrastruktur zu nutzen.

Moderne Technologien wie softwaredefinierte Datenverwaltungslösungen helfen Unternehmen dabei, diese Flexibilität zu erreichen, während die Kombination von schnellem NVMe und preiswertem Bandspeicher Optionen zur Identifizierung des idealen Speicherorten für Daten und Workloads bietet.

Es geht also längst nicht mehr um die Frage, ob man auf „Cloud-only“ oder „Nur vor Ort“ setzt, sondern um eine Kombination aus beidem. Flexibilität, Daten und Workloads bei Bedarf anzupassen, zu verschieben und zu migrieren sind weitere Vorteile.

*Als Manager Presales Central Europe leitet Ines Wolf seit 2017 das Quantum Presales Team in Zentraleuropa. Als Expertin für die Organisation und Speicherung von Unternehmensdaten berät und unterstützt Ines Wolf Kunden seit 17 Jahren dabei, moderne und effiziente Storagestrategien zu entwickeln. Vor ihrem Wechsel zu Quantum 2005 war Ines Wolf als Presales System Engineer bei Sony und Project Engineer bei Sun Microsystems tätig.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*