Investitionen in IT in unsicheren Zeiten: Storage-as-a-Service als Teil der Lösung

Klar ist: Die Datenvolumen werden weiter wachsen und die Digitalisierung steht bei vielen Branchen erst am Anfang. Unklar ist: Wie entwickelt sich die wirtschaftliche Lage und wir groß werden sowohl die Budgets als auch der Bedarf an neuer Technologie sein? [...]

Begona Jara, Regional Vice President Germany & Austria bei Pure Storage. (c) Pure Storage
Begona Jara, Regional Vice President Germany & Austria bei Pure Storage. (c) Pure Storage

Die Anziehungskraft der Public Cloud ist immens in einem Zeitalter, in dem die Cloud Daten zu ihr und weg vom Rechenzentrum zieht. Obwohl jedoch die Verlockungen der Cloud unbestreitbar sind, hat ihre Attraktivität ihren Preis. Die Cloud verspricht Flexibilität in Bezug auf Kapazität und Leistung, mit der Möglichkeit der Skalierung nach oben und nach unten – zumindest in der Theorie. Sie basiert auf einem Pay-as-you-go-Preismodell, das die laufenden Kosten zu Opex-Kosten und nicht zu Capex-Kosten macht.

Die Realität sieht jedoch oft weniger rosig aus. Die Kosten können außer Kontrolle geraten, die SLAs müssen streng überwacht werden und die Leistung kann nicht so garantiert werden wie bei On-Premises-Umgebungen. Aus diesen Gründen bevorzugen viele die Vorhersehbarkeit ihres eigenen Rechenzentrums. Der Ansatz einer Rückverlagerung aus der Cloud wird vielerorts bereits diskutiert. Glücklicherweise hat sich eine weitere Option herauskristallisiert, die potenziell das Beste aus beiden Welten bietet: Storage-as-a-Service (STaaS).

STaaS ist das Verbrauchsmodell für die Speicherbeschaffung, das es Unternehmen ermöglicht, die benötigte Kapazität und Leistung On-Premises, in der Cloud oder in jeder anderen Kombination bereitzustellen und auf einer As-a-Service-Basis zu bezahlen. Was sind die Vorteile von STaaS-Verbrauchsmodellen vor Ort und die Art der Dienste, auf die Unternehmen achten sollten?

Vorteile von STaaS

Verbrauchsmodelle für den Speichereinkauf machen die Beschaffung von Block-, Datei- und Objektspeicherkapazität für den On-Premises-Einsatz zu einer Pay-as-you-go-Transaktion. Dies steht im Gegensatz zu den traditionellen Methoden des Hardwarekaufs vor Ort, bei denen neue Produkte in einem Dreijahreszyklus gekauft wurden, um Geräte zu ersetzen, die beim vorangegangenen Refresh drei Jahre zuvor gekauft wurden etc.

Storage-Beschaffung war bislang ein Kauf von Waren. Unternehmen erwarben die Hardware direkt und zahlten für einen Supportvertrag. Sie konnten die Steuerungssoftware aufrüsten, Laufwerke und Racks hinzufügen. Wenn da jedoch unter der Last der gestiegenen Leistungs- oder Kapazitätsanforderungen ächzte und das Ende seiner Lebensdauer erreichte, war es Zeit für den nächsten Refresh und ein Forklift-Upgrade.

Verbrauchsmodelle versuchen, dies zu vermeiden, indem sie die Speicherbeschaffung zu einer serviceähnlichen Erfahrung machen. Die Kunden verpflichten sich in der Regel zu einer bestimmten Mindestkapazität, wobei sie auch zusätzliche „Puffer“-Kapazitäten und die Möglichkeit einer darüberhinausgehenden Skalierung vereinbaren. Eine Form der Überwachung ermöglicht es dem Anbieter dann, eine Rechnung für den genutzten Speicherplatz vorzulegen. Die Behandlung von Speicher als Dienstleistung hat den großen Vorteil höherer Flexibilität, was die Skalierbarkeit und die Möglichkeit angeht, mehr Kapazität oder Leistung hinzuzufügen.

Die Storage-Bereitstellung im Rechenzentrum des Kunden bedeutet, dass die Speicherleistung besser sein kann als in der Cloud und bei weitem nicht so anfällig für eine Beeinträchtigung über das Wide Area Network (WAN) ist. Außerdem sind Rechnungen und Nutzung im Vergleich zu Cloud-Speicher wahrscheinlich besser vorhersehbar, insbesondere ohne kostspielige Cloud-Eigenheiten wie Ausstiegsgebühren, die sich unbemerkt summieren und zu hohen Rechnungen führen können. Auch die Sicherheitsbedenken, die mit der Cloud verbunden sind, werden entkräftet.

Wenn der Storage-Anbieter jedoch über eine Cloud-Infrastruktur oder entsprechende Partnerschaften verfügt, kann eine Hybrid-Cloud als Teil der Vereinbarung verfügbar sein. Somit besteht die Möglichkeit, in die Cloud auszulagern, um zusätzliche Produktionskapazitäten zu nutzen oder weniger häufig genutzte Daten zu speichern.

Darüber hinaus kann STaaS als Opex-Kosten behandelt und somit steuerlich geltend gemacht werden. Zusammenfassend lässt sich also sagen, dass Verbrauchsmodelle für die Speicherbeschaffung potenziell flexible und skalierbare Kapazität und Leistung bieten, die vor Ort betrieben, aber wie ein Service abgerechnet werden. Hinzukommt die Möglichkeit, eine Verbindung zur Cloud als Erweiterung des Rechenzentrums herzustellen – und all dies wird als Opex-Kosten behandelt.

Worauf sollten Unternehmen also bei STaaS-Angeboten achten?

Das Kernstück von Verbrauchsmodellen ist die Möglichkeit, Speicherkapazität vor Ort bereitzustellen und nach Verbrauch abzurechnen. Entscheidend ist hier jedoch, dass der Service wirklich als Dienstleistung erbracht wird. Mit anderen Worten: Kapazitäts- und Leistungsniveaus sollten durch SLAs abgesichert sein, und wenn mehr Hardware benötigt wird, um diese zu erfüllen, sollte sie ohne Unterbrechung geliefert und bereitgestellt werden.

Die meisten Anbieter bieten eher eine Art Leasingvertrag an, bei dem ihre Produkte in einem Drei- oder Fünfjahreszyklus bereitgestellt werden und am Ende mit Forklift-Upgrades aufgerüstet werden. Im Gegensatz dazu arbeiten die besten StaaS-Angebote mit garantierten Service-Levels und automatisierten Upgrades, um die Leistungs- und Kapazitätsgarantien ohne zusätzliche Kosten einzuhalten, und die durch KI-basierte Überwachung und Telemetrie ausgelöst werden.

Unternehmen sollten auch prüfen, ob der Speicheranbieter in der Lage ist, Datei- und Blockzugriffsspeicher sowie schnellen Datei- und Objektspeicher auf derselben Hardware bereitzustellen, wobei die Leistungsstufen durch Eingabe- und Ausgabegeschwindigkeit, Durchsatz und Kapazität definiert sind. Auf diese Weise werden alle Workloads abgedeckt, vom schnellen transaktionalen Blockzugriff über unstrukturierte Dateidaten bis hin zur schnellen Durchsatzleistung, die für Analysen und Wiederherstellungen von Sicherungsdaten erforderlich ist.

Die Überwachungssoftware sollte dem Unternehmen einen Überblick über die Kapazitätsauslastung und die Leistung der Speicherinfrastruktur On-Premises und in der Cloud geben, aus dem hervorgeht, wie die SLAs eingehalten werden. Sie sollte auch die Möglichkeit bieten, Speicherplatz bereitzustellen. Im Idealfall ermöglichen KI-gesteuerte Tools Vorhersagen über die künftige Nutzung ermöglichen und können Teil des Prozesses zur Auslösung von Leistungs- und Kapazitätserweiterungen sein.

Dies sind die Hauptmerkmale der fortschrittlichsten Speichernutzungsmodelle, die heute auf dem Markt sind. Sie können Unternehmen zu einer Cloud-ähnlichen Flexibilität verhelfen, aber mit der Sicherheit, die nur der On-Premises-Betrieb bietet.

*Begona Jara ist Regional Vice President Germany & Austria bei Pure Storage.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*