Die steigenden Kosten der Public Cloud ausgleichen

Die steigenden Energiekosten zwingen Public-Cloud-Anbieter dazu, ihre Preise deutlich anzuheben. [...]

Foto: GerdAltmann/Pixabay

Ein kürzlich veröffentlichter Bericht von Canalys prognostiziert, dass die Kosten für Public Clouds in 2023 in den USA um rund 20 Prozent und in Europa um mehr als 30 Prozent steigen werden. Diese enormen Preissteigerungen stellen die gängige Meinung, dass die Cloud eine kostengünstige Alternative für das Computing im eigenen Rechenzentrum darstellt, auf den Prüfstand.

Viele Unternehmen werden aufgrund höherer Cloud-Kosten abwägen, ob es noch sinnvoll ist, ihre Infrastruktur in die Cloud zu verlagern. Denn es existieren Alternativen. Beispielsweise bei Lösungen, die regelmäßig und dauerhaft genutzt werden, kann es aus wirtschaftlicher Sicht sinnvoll sein, diese intern zu betreiben, anstatt sie in der Cloud zu hosten. Die eigene Infrastruktur zu betreiben und selbst zu verwalten könnte mitte- bis langfristig kostengünstiger sein.

Andererseits sind komplexere Technologien und Lösungen mit hohen Einstiegskosten, wie etwa künstliche Intelligenz, nach wie vor gute Kandidaten für das Cloud-Hosting. Diese benötigen auch weiterhin zu viel Infrastruktur und Personal, um intern wirtschaftlich betrieben zu werden.

Die Cloud bleibt zudem eine hervorragende Option für Dienste und Lösungen, bei denen eine größere Flexibilität erforderlich ist. So gibt es diverse Technologien, die für einen bestimmten Zeitraum schnell hochgefahren werden müssen, um anschließend ebenso schnell wieder reduziert zu werden.

Dies gilt beispielsweise für Lösungen für das Finanzwesen während der letzten Tage eines Monats oder Quartals oder für Shop-Systeme während Weihnachten oder dem Black Friday.

Solche Aspekte sollten die Unternehmen bei der Entscheidung berücksichtigen, ob sie ihre Daten und die Infrastruktur in der Cloud belassen oder nicht.

Die partielle Rückverlagerung in eine lokale Infrastruktur beziehungsweise die Transformation zu einer hybriden Infrastruktur bedeutet, dass einige Daten und Anwendungen in der Cloud verbleiben, während andere in das lokale Rechenzentrum zurückkehren. Für Unternehmen gilt es, die individuell passende Balance dieser Optionen zu finden.

Vor- und Nachteile der hybriden Cloud

Eine hybride Cloud hat eine Menge Vorteile. Unternehmen, die einen hybriden Cloud-Ansatz wählen, können ihre Kosten leichter kontrollieren und ihre Daten unabhängig davon verwalten, wo sie sich befinden – vor Ort, in einer öffentlichen oder in einer privaten Cloud.

Gleichzeitig sehen sich viele Unternehmen mit einer Reihe von neuen Trends oder Bedrohungen konfrontiert, die sich auf ihre Geschäftsabläufe auswirken. Auch in diesen Fällen ist die Flexibilität einer hybriden Cloud optimal.

Ein hybrides Rechenzentrum ist anpassungsfähig. Es ist ein praktikables System, das es Unternehmen ermöglicht, auch den wachsenden Bedrohungen durch Ransomware-Angriffe zu begegnen und gleichzeitig den steigenden Geschäftsanforderungen gerecht zu werden – und zwar in Echtzeit.

Ein hybrides Rechenzentrum bietet eine hohe Sicherheit, effiziente Leistung, Zuverlässigkeit, Skalierbarkeit, Agilität und Kosteneffizienz.

Aber, ein hybrides Rechenzentrum erfordert Arbeit. Die Implementierung und der Betrieb einer hybriden Infrastruktur können das IT-Management vor Herausforderungen stellen.

Zwar ermöglichen es hybride Konzepte, Arbeitslasten effizient zu speichern, je nach Bedarf zu verlagern und sensible Daten besser zu schützen. Gleichzeitig erhöht ein hybrides Rechenzentrum die Komplexität der Verwaltung von Servern, Netzwerken, Speicher und Software.

Beispielsweise müssen Unternehmen, die eine Hybrid-Cloud betreiben, ihre Daten und Anwendungen sowohl vor Ort als auch in der Cloud sichern. Sie müssen auch in der Lage sein, Daten und Anwendungen vor Ort oder in der Cloud wiederherzustellen – unabhängig davon, wo das Unternehmen die Daten und Anwendungen ursprünglich gehostet hat.

Und sie müssen Backups und Wiederherstellungen in einer hybriden Umgebung durchführen können. Dafür benötigen sie Datenverwaltungs- und Speicherlösungen, die den Anforderungen einer hybriden Infrastruktur gerecht werden.

Die Datenrückführung wird kommen

Da die Kosten für die Cloud immer weiter steigen, werden Unternehmen Arbeitslasten zurückführen müssen, um die IT-Budgets zu schonen. Das ist keine Prognose, sondern bereits heute Realität. Die steigenden Energiepreise zwingen Unternehmen dazu, ihre Cloud-Strategie zu überdenken und ihre Daten aus der Cloud in das eigene Rechenzentrum zu verlagern.

Untersuchungen zeigen, dass sogar eine Mehrheit der Unternehmen ihre Arbeitslasten aus der Cloud zurück in das eigene Rechenzentrum verlagern wollen. In einer Umfrage des Marktforschungsunternehmens IDC gaben 71 Prozent der Befragten an, dass sie planen, einige oder alle Arbeitslasten, die sie derzeit in öffentlichen Clouds ausführen, in den nächsten zwei Jahren zurück in lokale Umgebungen zu verlagern. Lediglich 13 Prozent haben vor, alle ihre Arbeitslasten in der Cloud auszuführen.

Außer dem Kostenaspekt gibt es gibt noch weiter Gründe, warum Unternehmen ihre Arbeitslasten aus der Cloud in lokale Umgebungen zurückverlagern. Dazu gehören Sicherheit, Leistung, Einhaltung von Vorschriften und der Wunsch nach einer besseren Kontrolle über die IT-Infrastruktur.

Allerdings: Wenn die Arbeitslast sprunghaft ansteigt – was häufig der Fall ist – steigen auch die Kosten in der eigenen Infrastruktur. Das sollten Unternehmen bei ihren Entscheidungen unbedingt berücksichtigen.

Hinzu kommt, dass die Datenmengen in der Cloud so groß geworden sind, dass sie oft nicht mehr im hausinternen Rechenzentrum sinnvoll zu bewältigen sind. Daher kann die Rückverlagerung nur eines Teils der Daten neben geringeren Kosten auch Vorteile wie bessere Sicherheit und höhere Leistungsfähigkeit bringen.

Unternehmen, die ihre Daten sowohl vor Ort als auch in der Cloud speichern, benötigen eine Datenspeicherlösung, die ihre Daten schützt, egal wo sie sich befinden – vor Ort, extern oder in der Cloud. Außerdem benötigen sie eine Speicherlösung, die sicherstellt, dass ihre Daten 24 Stunden am Tag, 7 Tage die Woche und 365 Tage im Jahr verfügbar sind, selbst unter unvorhersehbaren Umständen.

Idealerweise benötigen Unternehmen eine Speicherlösung, die mit Analyse-Tools eine schnelle Entscheidung darüber ermöglicht, welche Daten für den Betrieb kritisch sind und welche nicht. Mit diesen Analysen können Unternehmen effizient bestimmen, welche Datensätze sie in die Cloud verlagern, welche lokal gespeichert werden und welche sie wieder zurück ins eigene Rechenzentrum verlagern sollten.

Mit Hilfe der Analysen kann zudem entschieden werden, wie die Daten gesichert werden müssen. Gleichzeitig bieten die Analysen die Grundlage für eine intelligent abgestufte Datenarchitektur, die einen schnellen Zugriff auf wichtige Daten gewährleistet und gleichzeitig Kosten spart, indem sie weniger wichtige Daten auf günstigere Medien verlagert.

To-Do-Liste für das Jahr 2023

Da die Kosten für die Cloud unweigerlich steigen werden, bleibt für die meisten Unternehmen kein anderer Weg, als die Datenspeicherungsstrategie neu zu überdenken und die Optionen zu evaluieren. Es geht darum, Lösungen zu finden und zu implementieren, die eine kostengünstige Verwaltung der Arbeitslasten und Daten garantiert und gleichzeitig sicherstellt, dass sie jederzeit zugänglich und vor allem sicher sind.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*