Storage im Unternehmen – Zuviel Neues hemmt Investitionen

Der Bedarf an Storage wächst weiter stetig. Die Speicherprodukte und Lösungen werden ebenfalls vielfältiger. Bei den vielen Möglichkeiten auf das richtige Konzept zu setzen, ist schwierig. Vor allem kleinere Unternehmen zögern mit Investitionen, auch wenn sich viel in Richtung Cloud bewegt. [...]

Die Herausforderungen für Unternehmen werden nicht weniger, denn die nächsten Jahre wächst das Datenvolumen schneller als gedacht. Bereitstellen von Cloud-Services, die Datenanalyse, Social Networking, Sync & Share-Dienste, Internet der Dinge & Co. bringen die Rechenzentren von Unternehmen an die Belastungsgrenze. Die Speicherlandschaft muss also hoch skalierbar sein, das Management soll dagegen einfacher werden. Gleichzeitig steigen mit den künftigen Workloads auch die Ansprüche an die Leistungsfähigkeit, schnelle Antwortzeiten bei jeglichen Datenzugriff sind Pflicht.
Auf der Konferenz Powering the Cloud (die ehemalige Storage Networking World) waren die wichtigen Storage-Anbieter vertreten, um ihre Lösungen für die erwähnten Probleme zu präsentieren. Doch neben den etablierten Storage-Größen wie Hitachi Data System oder NetApp zeigen sich auch Unternehmen wie Amazon und SAP auf der Konferenz – denn schließlich geht vieles mehr und mehr in die Cloud.
Doch geht man mal weg von den Storage- und Cloud-Spezialisten, die unisono natürlich jeweils das beste für alle Storage-Probleme parat haben, und denkt sich in IT-Entscheider von kleineren Unternehmen oder Mittelständlern hinein: Hier hat meistens niemand Zeit, sich über alle propagierten Lösungen der Hersteller ein Bild zu machen und das Beste für sich herauszupicken. Und gerade in letzter Zeit ist sehr viel Bewegung im Storage-Umfeld mit unzähligen verschiedenen Flash-Ansätzen zur Beschleunigung von Workloads, Cloud-Anbietern, die eine eigene Infrastruktur scheinbar überflüssig machen oder Virtualisierungslösungen, die alles ganz einfach machen.
ZUVIELE WEGE VERZÖGERN AUSGABEN
So ist es eigentlich wenig verwunderlich, dass auf der Powering the Cloud Stimmen zu hören waren, dass viele Unternehmen zurzeit beim Storage einen Ausgabenstopp haben. Der Grund sind die vielen unterschiedlichen Entwicklungen aus technologischer Sicht. Das beginnt schon bei den diversen Flash-Ansätzen: Soll man Flash als schnellen Tier 0 im Storage-Subsystem nutzen, ist Flash als Caching-Lösung besser und wo soll der Flashspeicher eigentlich sitzen? Nicht im Storage-Rack, besser als SSDs im Server und hier nicht gleich als noch schnellere PCIe-Karte? Und geht der Trend nicht eh wieder hin zu lokalem Storage in den einzelnen Server-Nodes, weg vom angebundenen Pool? Dann gibt es derzeit viele Überlegungen, Storage in die Cloud auszulagern; beispielsweise Backups. Auch die großen Storage-Anbieter wie EMC, NetApp oder HDS trimmen ihr Portfolio für die Cloud. Entweder preisen sie ihre Produkte als geeignete Infrastruktur für Cloud-Dienste an, oder es gibt von den ehemaligen Traditionalisten selbst buchbare Cloud-Dienste.
Durch diese sehr vielschichtige Bewegung im Storage-Markt warten viele Unternehmen derzeit ab, auf welche Technologie und Lösung es eigentlich zu setzen gilt. Fakt bei all den verschiedenen Ansätzen ist aber: Storage muss flexibel, sprich virtualisiert sein. Unternehmen wollen sich nicht in die Abhängigkeit eines Anbieters begeben, eine Virtualisierungsschicht soll alle Storagesysteme im Rechenzentrum verwalten, egal ob es „Commodity Storage“ oder Systeme von HP, NetApp oder HDS sind. Neben simplen Management lässt sich so flexibel auf Geschäftsprozesse reagieren; wie schon bei der Server-Virtualisierung. Damit fällt ganz schnell das Stichwort „Software defined Datacenter“, denn auch Anbieter von Netzwerkkomponenten wie Emulex setzen verstärkt auf die Virtualisierung ihrer Produkte.
Doch zurück zum Storage: Die Virtualisierung der Speicherebene freut natürlich Anbieter wie Commvault und DataCore, die sich frühzeitig darauf spezialisiert haben. Diese Softwarelösungen erlauben nicht nur die Virtualisierung der kompletten Storagesysteme im Unternehmen, sondern binden auch Cloud-Dienste wie Amazon S3 oder Microsoft Azure mit ein. Hitachi Data Systems setzt ebenfalls seit Jahren stark auf die Storage-Virtualisierung und hat seit kurzem hierfür ein eigenes Betriebssystem mit der Bezeichnung Storage Virtualization Operating System SVOS im Angebot.
DIE CLOUD WIRD INTEGRALER BESTANDTEIL
Einbindung von Cloud-Diensten in die eigene Storage-Landschaft wird sowieso immer wichtiger, so war der Tenor der Austeller auf der Powering the Cloud. Entsprechend bietet beispielsweise selbst eine Storage-Größe wie EMC und NetApp Schnittstellen in ihren Systemen für die Integration von Diensten wie Amazon S3 & Co. an. Amazon selbst hat auf der Konferenz die Werbetrommeln für seine neue deutsche Cloud kräftig gerührt. Gerade in Deutschland wollen Kunden ihre Daten im EU-Rechtsraum wissen; am besten natürlich innerhalb der eigenen Grenzen. Mit der AWS-Cloud mit dem Rechenzentrum in Frankfurt will Amazon deutschen Kunden genau das bieten; inklusive kurzer Latenzzeiten. Insbesondere dem deutschen Mittelstand will Amazon mit seinem Frankfurter Rechenzentrum den Weg in die Cloud ebnen und schmackhaft machen.
Wenn es um Cloud-Dienste geht, dann soll vor allem SAP für Mittelständler sehr interessant sein, wie Sven Denecken, Global Vice President Co-Innovation and Strategy Cloud Suite, SAP SE, im Gespräch mit TecChannel erörtert. Allerdings haben die Walldorfer noch mit ihrem Image von „teuer, kompliziert und eh nur für Großunternehmen geeignet“ zu kämpfen. So denken gerade kleinere Unternehmen bei ihrer Cloud-Strategie nicht unbedingt an SAP. Allerdings bietet SAP fast seine gesamten Lösungen inzwischen in der Wolke an. Das Unternehmen legt im Cloud-Segment mit 41 Prozent Steigerung auch ein rasantes Umsatzwachstum hin; insbesondere in Europa. Gerade Mittelständler profitieren von SAPs Cloud-Diensten, weil sie damit ohne eigene Infrastruktur sofortigen Zugang zu Geschäftsnetzwerken, Lieferanten und Handelspartner bekommen, wie Sven Denecken angibt. Auch die wichtigen Business-Anwendungen Finanz-, Kunden- oder Personalmanagement oder Beschaffungs- und Lieferprozesse gibt es als Cloud-Dienste. Damit könne man laut Denecken den Mittelständlern die Angst vor hohen Investitionen in eigene Infrastrukturen oder langwierige Implementierungsprozessen nehmen.
CHANCE FÜR SYSTEMHÄUSER
Nichtsdestotrotz bleibt es derzeit für kleine Unternehmen und Mittelständler schwer, sich für die richtige Storage- und Cloud-Strategie zu entscheiden; die Möglichkeiten sind einfach zu vielfältig derzeit. Und bevor Fehlentscheidungen getroffen werden, warten viele Firmen – wenn die Lage es zulässt – derzeit noch ab, bis sich zukunftsträchtige Lösungen herauskristallisieren.
Hier ergibt sich vor allem für kompetente Systemhäuser die Chance, Mittelständler durch gute Beratung für die richtige Storage-Lösung an sich zu binden.
*Christian Vilsbeck ist als Senior Editor bei TecChannel tätig.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*