5 Dinge, die Sie über Pay-per-Use-Hardware wissen sollten

Eine verbrauchsabhängige Preisgestaltung für Speicher, Server und Netzwerkgeräte vor Ort kann zu mehr Flexibilität führen, aber die Bewertung der Preise erfordert finanziellen Scharfsinn. Verträge können langfristige Verpflichtungen und Mindestzahlungen mit sich bringen, und die Hardware kann sogar mehr kosten als ein Direktkauf. [...]

(c) pixabay.com

Pay-per-Use-Hardwaremodelle wie HPE GreenLake und Dell Apex sind darauf ausgelegt, Cloud-ähnliche Preisstrukturen und flexible Kapazitäten für Rechenzentren vor Ort bereitzustellen.

Und das Interesse wächst, da Unternehmen nach Alternativen zum direkten Kauf von Geräten für Arbeitslasten suchen, die sich nicht für Public-Cloud-Umgebungen eignen.

Das Konzept der Pay-per-Use-Hardware gibt es schon seit mehr als einem Jahrzehnt, aber die Begeisterung dafür wächst, so Daniel Bowers, ehemaliger Senior Research Director bei Gartner. „Seit etwa vier Jahren ist das Interesse daran wieder erwacht, vor allem durch HPE und sein GreenLake-Programm“.

HPE hat sich verpflichtet, sein gesamtes Portfolio bis 2022 auf Pay-per-Use- und As-a-Service-Angebote umzustellen. Zu den weiteren Programmen gehören Apex von Dell, das Anfang des Jahres die ersten Produkte seines Portfolios an gemanagtem Storage, Servern und hyperkonvergenter Infrastruktur vorgestellt hat, Cisco Plus Network-as-a-Service (NaaS) von Cisco, das plant, den Großteil seines Portfolios im Laufe der Zeit als Service bereitzustellen, Lenovo TruScale Infrastructure Services und das Keystone Flex Subscription Storage-as-a-Service-Angebot von NetApp.

Bei solchen Pay-per-Use-Modellen kann die Hardware im eigenen Rechenzentrum, an Edge-Standorten oder in Colocation-Einrichtungen eingesetzt werden.

Was die Akzeptanz anbelangt, so ist die Akzeptanz im Speicherbereich bisher am stärksten. Gartner prognostiziert, dass im Jahr 2024 die Hälfte der neu installierten Speicherkapazität als Service genutzt werden wird. Auf der Serverseite werden im Jahr 2024 5,6 % der Ausgaben für x86-Server vor Ort als Service genutzt werden.

Aber das Modell ist nicht ohne Herausforderungen, und hier sind fünf Faktoren zu berücksichtigen.

Die Hardware könnte mehr kosten

Es ist ein Irrglaube, dass Unternehmen mit verbrauchsbasierten Modellen dieselbe Hardware zu niedrigeren Lebenszeitkosten erwerben können als mit einem Direktkauf, so Bowers. „Zu viele Leute denken, dass dies nur ein Weg ist, um billigere Hardware zu bekommen, dass sie das System irgendwie austricksen können. Und so sind sie aufgeregt. Aber das ist es nicht. Verschwenden Sie also nicht Ihre Zeit.“

In der Realität ist ein Pay-per-Use-Modell in der Regel teurer als der direkte Kauf von Geräten, insbesondere wenn ein Unternehmen weiß, wie viel Kapazität es benötigt. Wenn ein Unternehmen beispielsweise weiß, dass es in den nächsten drei Jahren 100 Server benötigt, wäre es kostengünstiger, diese Server direkt zu kaufen.

Flexible Kapazität bedeutet betriebliche Agilität

Der Reiz der verbrauchsabhängigen Preisgestaltung liegt darin, dass die Infrastrukturkosten an die Nutzung angepasst werden. Die Programme sind so konzipiert, dass Unternehmen ihre Ressourcen problemlos nach oben und unten skalieren können, und sie verlagern das Risiko einer Überbelegung auf den Anbieter. Der Wert liegt in der gewonnenen operativen Agilität.

Ein verbrauchsbasiertes Modell kann auch den Beschaffungszyklus erheblich rationalisieren. „Die Anbieter geben Ihnen einen so genannten Pufferbestand. Sie haben zusätzliche Geräte, die ungenutzt herumstehen – dunkle Geräte, die einsatzbereit sind. Wenn Sie etwas brauchen, schalten Sie es einfach ein“, so Bowers. „Anstatt also eine Woche, zwei Wochen oder drei Monate zu warten, um neue Geräte zu bestellen und zu liefern, stehen sie bereits in Ihrer Einrichtung und sind einsatzbereit. Sie schalten sie einfach ein.“

Fallstricke: Laufzeitverpflichtungen und Mindestzahlungen

Die meisten Programme sind heute nicht streng nutzungsabhängig, so Bowers. Sie kombinieren feste Zahlungen mit einigen variablen Elementen, die auf einer Messung der Nutzung basieren. Eine tatsächliche nutzungsabhängige Bezahlung würde bedeuten, dass ein Kunde nichts zu zahlen hätte, wenn in einem bestimmten Monat keine Ressourcen genutzt würden.

„Diese Programme sind fast immer mit einer langfristigen Verpflichtung verbunden, etwa für drei oder vier Jahre. Sie sind immer mit einer Mindestzahlung verbunden, die beträchtlich ist“, sagte er. „Es ist nicht so, dass man das Zeug auf Null herunterfahren und einen Monat nichts zahlen kann.

Preisgestaltung: Finanzielle Intelligenz erforderlich

Wenn IT-Teams in Unternehmen ein Angebot für eine verbrauchsbasierte Infrastruktur einholen, befinden sich viele von ihnen auf unbekanntem Terrain, da sie diese Art der Preisgestaltung noch nie bewertet haben.

„Es ist einfach für HP oder Dell, Ihnen zu sagen, wie viel sie pro Kern berechnen werden, aber dann merken Sie, dass Sie keine Ahnung haben, ob dieser Preis fair ist. Das ist nicht die Art und Weise, wie Sie in Ihren eigenen Einrichtungen kalkulieren, und es ist ein Vergleich zwischen Äpfeln und Birnen im Vergleich zu den Kosten der öffentlichen Cloud„, so Bowers. „Sobald Unternehmen einen Kostenvoranschlag erhalten, neigen sie dazu, sich drei Monate lang mit Tabellenkalkulationen zu beschäftigen, um herauszufinden, ob dieser Kostenvoranschlag angemessen ist. Es kann also drei, vier, fünf Monate dauern, bis ein erstes Geschäft ausgehandelt ist.“

Unternehmen tun sich schwer, verbrauchsabhängige Vorschläge zu bewerten, und es fehlt ihnen an Vertrauen in ihre Verbrauchsprognosen, so Bowers. „Es erfordert eine Menge finanziellen Scharfsinn, um eines dieser Programme anzunehmen.

Erfahrung kann helfen. „Die Unternehmen, die die sichersten Entscheidungen treffen, sind diejenigen, die in der Vergangenheit viel geleast haben. Nicht, weil es sich um ein Leasing handelt, sondern weil diese Unternehmen über die mentalen Muskeln verfügen, um die finanziellen Aspekte der Zeit, des Wertes, der variablen Zahlungen und der Risiken von Zahlungsspannen zu bewerten“, so Bowers.

Der große Unterschied zwischen einem Programm wie HPE GreenLake oder Dell Apex und dem Leasing besteht darin, dass die Kosten bei einem verbrauchsabhängigen Modell von Monat zu Monat schwanken, je nachdem, wie viel man verbraucht. Leasing ist ein reines Finanzierungsprogramm, und die Kapazität ändert sich bei einem typischen Leasingprogramm nicht.

Erfahrungen mit der Public Cloud, die ebenfalls variable Kosten mit sich bringt, können ebenfalls hilfreich sein. „Der Wechsel von einem jährlichen Budget zu ‚Ich weiß nicht, wie viel ich ausgeben werde‘ ist eine große Umstellung. Eine gewisse Cloud-Nutzung ist also hilfreich“, so Bowers.

Gleichzeitig erfordert die verbrauchsabhängige Preisgestaltung die gleiche Kostenkontrolle wie die Public Cloud, damit ein Unternehmen nicht von unkontrollierten Ausgaben überrascht wird. „Man muss Kostenkontrollen einführen, um sicherzustellen, dass man nicht einfach den Wasserhahn aufdreht und die Leute wild mit Ressourcen um sich werfen lässt – genau die Kontrollen, die man auch bei der Nutzung der öffentlichen Cloud einführt“, so Bowers.

Im Allgemeinen eignen sich für die Evaluierung eines verbrauchsbasierten Modells für die Infrastruktur vor allem Unternehmen mit großen, zentralisierten IT-Gruppen, die es gewohnt sind, Projekt- oder Abteilungsgebühren für IT-Services zu erheben. „Unternehmen dieser Größe und dieses Umfangs haben das gut hinbekommen. Intern agieren sie selbst wie ein Mini-Service-Provider“, so Bowers, „sie sind also mit dem Versuch vertraut, ihre Kosten anzugleichen.“

Das Modell für Rechenzentren ist noch jung

Bei den Workloads, die für ein verbrauchsbasiertes Modell in Frage kommen, handelt es sich in der Regel um Workloads, die bereits vor Ort vorhanden sind und aus Gründen der Latenz oder der Datenhoheit nicht in die Public Cloud verlagert werden können. Das bedeutet jedoch nicht, dass es sich um einen kleinen Markt handelt. „Es gibt tonnenweise Dinge, die nicht in die Cloud verlagert werden können, es handelt sich also nicht nur um einen winzigen Ausschnitt der Welt“, so Bowers.

Das dramatische Wachstum von 30 bis 40 % bei den Ausgaben für öffentliche Clouds im Vergleich zu einem stagnierenden Markt für neue Speicher und Server kann den Eindruck erwecken, dass die Ausgaben für lokale Infrastrukturen zurückgehen. Das ist aber nicht der Fall, so Bowers. „Viele Endbenutzer haben den falschen Eindruck, dass die Ausgaben für die Cloud steigen und die für die lokale Infrastruktur sinken. Tatsächlich kaufen die Leute heute genauso viel Material vor Ort – Server und Speicher – wie früher.

Auf dem Markt für verbrauchsbasierte Infrastrukturen ist der Speicherbereich bisher der Bereich, der am meisten an Zugkraft gewinnt. Ein Grund dafür ist, dass Speicher einfacher zu bepreisen und zu verstehen ist. „Bei diesen Programmen gibt Ihnen ein Anbieter im Grunde einen Automaten, der Terabytes an Speicherplatz ausspuckt. Man drückt den Knopf. Sie verstehen, was Sie bekommen“, so Bowers. „Es ist einfach zu bepreisen, es ist einfach zu verstehen und es ist einfach zu übernehmen.

Servermetriken sind eine größere Herausforderung. Anbieter können zum Beispiel pro Knoten, pro Kern, pro GB Speicher oder pro virtuelle Maschine abrechnen.

Der Markt für verbrauchsabhängige Netzwerkgeräte im Rechenzentrum befindet sich noch im Anfangsstadium.

„Das Problem bei der verbrauchsabhängigen Preisgestaltung für Netzwerke im Rechenzentrum ist, dass man noch nicht herausgefunden hat, welche Metrik man für Netzwerke berechnen soll“, so Bowers. „Berechnen wir nach dem übertragenen Megabyte oder nach der Anzahl der Ports, die wir einsetzen? Oder nach der Anzahl der Switches, die wir einsetzen?“

Während die Akteure darüber nachdenken, wie sie Netzwerk-as-a-Service-Optionen in Rechnung stellen können, wächst der breitere Markt für verbrauchsabhängige Preismodelle weiterhin in einem gesunden Tempo. Die Einführungsraten liegen bei etwa 30 % Wachstum, Jahr für Jahr.

*Ann Bednarz berichtet für Network World über IT-Karrieren, Outsourcing und Internetkultur.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*