Pure Storage erläutert die Zukunft des Storage-Managements – Warum intelligente Self-Services mittelfristig unverzichtbar sind

Das Storage-Management entwickelt sich schnell weiter. Vorangetrieben durch den KI-Boom und die digitale Transformation müssen Rechenzentren ein massives Datenwachstum, beispiellose Anforderungen an die Agilität von Anwendungen, eine steigende Komplexität, einen Mangel an Fachkräften und steigende Energiekosten bewältigen. [...]

Foto: Pexels/Pixabay

Es handelt sich weniger um einen Umbruch als um einen perfekten Sturm, was jedoch auch Chancen für Verbesserungen bietet. Unternehmen können ihre IT-Infrastruktur und ihren Betrieb modernisieren, um die Vorteile einer neuen Ära des Storage-Managements zu nutzen, die auf richtlinienbasierter Verwaltung, Self-Service-Bereitstellung und automatisierten Storage-as-Code-Ansätzen beruht.

Die Herausforderung der Daten

Von den grundlegenden Faktoren, die sich auf das Storage-Management auswirken, ist die Beziehung zu Daten entscheidend. Laut Statista liegt die durchschnittliche jährliche Datenwachstumsrate seit 2010 bei 38 Prozent. Darin enthalten sind einige Spitzenjahre, wie etwa während der Pandemie, in denen das Datenaufkommen in die Höhe schoss, wobei für 2025 ein Gesamtvolumen von 181 Zettabyte weltweit prognostiziert wird.

Dies ist eine schwindelerregende Menge, und es gibt keine Anzeichen für eine Verlangsamung. Die installierten Speichermedien haben den Anstieg des Datenvolumens nachvollzogen: 6,7 Zettabyte im Jahr 2020 – wobei zu bedenken ist, dass viele der erzeugten Daten nicht gespeichert werden und eine jährliche Wachstumsrate von 19 Prozent bis 2025 prognostiziert wird.

Die Planung eines solchen Datenwachstums bereitet den Unternehmen Kopfzerbrechen, insbesondere angesichts des traditionellen Investitions- und Abschreibungszyklus. In der Vergangenheit bedeutete die Fähigkeit, ungeplante Anforderungen zu bewältigen, zusätzliche Hardware in Reserve halten zu müssen. Gleichzeitig haben die steigenden Stromkosten die Notwendigkeit einer besseren Energienutzung im Rechenzentrum verstärkt. IT-Organisationen müssen sich nun auch auf die Effizienz und Nachhaltigkeit ihrer Infrastruktur konzentrieren.

Die Bereitstellung von Speicherplatz war ebenfalls ein zeit- und personalaufwändiger Prozess, insbesondere in Unternehmen, die vertikal zwischen den Geschäftsabteilungen und den IT-Untereinheiten Software, Server, Speicher und Netzwerke aufgeteilt sind. Anfragen zur Implementierung und Bereitstellung von Speicher erforderten einen verschlungenen Weg von den anfragenden Abteilungen zu den Speicheradministratoren.

Oft benötigte das Unternehmen viele Administratoren mit unterschiedlichen Fähigkeiten, um zahlreiche Speicherumgebungen mit verschiedenen Speicheranbietern und Technologien zu verwalten. All dies konnte leicht Wochen dauern.

Von der wachsenden Komplexität zum intelligenten Self-Service

Die Bewältigung des Datenwachstums und der zunehmenden Komplexität der Anwendungen erforderte früher zusätzliche Ressourcen, also Speicheradministratoren. Eine einfache Aufstockung des IT-Personals ist jedoch nicht nur ineffizient, sondern in der heutigen IT-Landschaft praktisch unmöglich.

Die Fähigkeiten zur Verwaltung mehrerer Legacy-Storage-Arrays sind oft nicht vorhanden oder nur sehr kostspielig zu beschaffen. Darüber hinaus möchten moderne Unternehmen, dass sich ihre Mitarbeiter auf Innovation, Produktivitätssteigerung und Kundenerfahrung konzentrieren und nicht auf die alltäglichen Bereitstellungsaufgaben.

Arbeitsintensive Ansätze für das Storage-Management sind heute nicht mehr sinnvoll. Das alte, vertikal segmentierte Paradigma des IT-Managements ist angesichts der neuen IT-Architekturen zusammengeschmolzen. Wir befinden uns im Rahmen der digitalen Transformation im Übergang zu neuen Normen, die Cloud-Betriebsmodelle und Infrastructure-as-Code mit Speicher als Teil des Anwendungsentwicklungs- und Bereitstellungsprozesses umfassen. Flexibilität und Schnelligkeit der Bereitstellung sind heute wichtiger denn je – und von Unternehmen wird erwartet, dass sie sich schnell an neue Anforderungen anpassen können.

Dort, wo dedizierte Speicherressourcen im Einsatz sind, wollen die Unternehmen das pro Vollzeitstelle verwaltete Speichervolumen deutlich erhöhen. Entscheidend für die neuen Paradigmen ist jedoch, dass ein Großteil der Speicherbereitstellung in die Entwicklungsphasen der Anwendungsbereitstellung übergeht, die durch die Self-Service-Auswahl von Speicherleistungsprofilen ausgelöst oder über APIs kodiert werden kann.

Bei neuen Modellen der Anwendungsbereitstellung wie der Containerisierung werden die Speicherressourcen als Teil der Anwendungskonfigurationsdatei definiert und so konzipiert, um sie von der Orchestrierungsplattform automatisch bereitstellen zu können.

Hier lassen sich Anwendungen schnell starten und skalieren, wobei die Speicheranforderungen in diese Lebenszyklen integriert sind, und zwar in einem Tempo, das oft über das hinausgeht, was Menschen manuell verwalten können. Bei einer derartigen Betriebsgeschwindigkeit muss das Speichermanagement über voreingestellte Richtlinien, automatische Bereitstellung und automatische Skalierung funktionieren.

Storage-Management in der Ära der digitalen Transformation

Die Zukunft des Speichermanagements konzentriert sich auf vom Kunden festgelegte Speicherleistungsprofile, die über Self-Service ausgewählt oder in der Anwendungsumgebung über Storage-as-Code und Orchestratoren vollständig automatisiert werden.

Zeitgemäß agierende IT-Organisationen werden die Rolle des Speicheradministrators in die eines Produktmanagers verwandeln. Dies bedeutet, dass Storage-„Produkte“ durch Abstraktionskonzepte wie Speicherklassen und Richtlinien definiert werden.

Dies bedeutet auch, Self-Service durch die internen Kunden des Unternehmens und die Orchestrierungsplattformen zu ermöglichen und nicht mehr eine Fachkraft festzulegen, die Speicherobjekte bereitstellt. Der neue Storage Product Manager hat somit die Freiheit, Geräteflotten statt einzelner Speicher-Arrays zu verwalten, die Nutzung der vorhandenen Dienste zu überwachen und neue Angebote zu erstellen.

Um dieses Cloud-Betriebsmodell zu ermöglichen, bieten einige Speicherhersteller Plattformen an, mit denen Speicheradministratoren ihre Speichergeräteflotte unterbrechungsfrei verwalten können. Ebenso können sie Kapazitäten hinzufügen sowie Speicherklassen, Richtlinien und Verfügbarkeitszonen definieren, die ihren Kunden zur Verfügung gestellt werden sollen. Entwickler, die Infrastruktur-als-Code-Plattformen verwenden, können die gewünschte Speicherklasse für eine Anwendung angeben, sie in Templates codieren, testen und bereitstellen.

Für vollautomatisierte containerisierte Umgebungen sollten Unternehmen nach einer Kubernetes-Datenplattform für moderne Anwendungen auf Enterprise-Niveau suchen. Diese bietet ein Speichermanagement für Kubernetes-Cluster mit automatischer Bereitstellung und Skalierung von persistentem Speicher sowie Datensicherheit.

Einige Lösungen bieten darüber hinaus auch Datendienste an, wie z. B. ein kuratiertes Set von Datenbanken für die Verwendung in Kubernetes-Umgebungen, die mit nur einem Mausklick bereitgestellt werden können, was für Entwickler eine enorme Zeitersparnis bedeutet.

Zu beachten ist jedoch, dass die Ermöglichung von Self-Service bei gleichzeitiger Abhängigkeit von langen Beschaffungs- und Lieferzyklen das Unternehmen einem Risiko aussetzt. Die vollständige Umsetzung dieser Konzepte bedeutet, dass die zugrundeliegenden Speicherplattformen als Service genutzt werden, um bei Bedarf eine schnelle Skalierung und Flexibilität zu ermöglichen, aber auch um Investitionen in Hardware zu vermeiden, bevor diese tatsächlich erforderlich ist.

Unternehmen sollten nicht nur auf die Technologie des Anbieters achten, sondern auch auf dessen Fähigkeit, seine Plattformen über flexible, bedarfsorientierte Nutzungsmodelle bereitzustellen.

Wie lässt sich nahtloses, modernes Storage-Management erreichen?

Der Vorteil der Zusammenarbeit mit einem einzigen Storage-Lieferanten besteht darin, dass integrierte Produktpakete die Effizienz über den gesamten Stack hinweg steigern. Alle Flash-Storage-Arrays, die über eine einzige Betriebsumgebung verbunden sind, bedeuten, dass Workloads im gesamten Unternehmen aus einer einzigen Sicht verwaltet werden können – und zwar nahtlos neben einer Kubernetes-Datenplattform und allen Self-Service-Speicherfunktionen, die ein modernes Unternehmen benötigt. 

Auch bei der Nutzung und Energieeffizienz ergeben sich enorme Vorteile. Einige All-Flash-Lösungen bieten eine um bis zu 85 Prozent höhere Energieeffizienz im Vergleich zu All-Flash-Produkten von Mitbewerbern und weisen einen viel geringeren Platzbedarf auf, um die Effizienz des Rechenzentrums zu maximieren.

Der Schlüssel zu einem nahtlosen, modernen Speichermanagement liegt in der Zusammenarbeit mit einem Anbieter, der all dies über ein flexibles, SLA-gestütztes Storage-as-a-Service-Angebot anbieten kann, das Garantien für den Energieverbrauch, Verzicht auf Datenmigrationen und störungsfreie Upgrades bietet.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*