Workload-first für den perfekten Multi-Cloud-Mix

Unternehmen nutzen oft mehrere Public Cloud-Plattformen für ihre Workloads. Das aber kann risikoreich und kostenintensiv sein. Ein Workload-first-Ansatz in Verbindung mit dem Zero-Trust-Prinzip bietet eine gute Lösung, denn er verbindet Leistungsfähigkeit mit Flexibilität und Sicherheit. [...]

Foto: GerdAltmann/Pixabay

Viele Unternehmen müssen heute komplexe Services und Workloads über mehrere Clouds und Edge-Standorte hinweg verwalten. Die veränderte Dynamik hat Einfluss darauf, wo und wie Cloud-Workloads bereitgestellt werden – und wie viele Cloud-Angebote überhaupt infrage kommen.

Prinzipiell ist ein Multi-Cloud-Ansatz nichts Neues – 87 Prozent der europäischen Unternehmen nutzen mehrere Public Cloud-Plattformen (Forrester). Zudem verlagern viele Akteure seit mehr als einem Jahrzehnt ihre Arbeitslasten auf Cloud-Hyperscaler.

Jetzt aber gibt es effizientere Optionen. Sie versprechen niedrigere Kosten, mehr Agilität und größere Einfachheit. Damit können sie neue Arbeitslasten aufnehmen und bestehende ergänzen.

Es mag unmöglich scheinen, durch die vielen verschiedenen Cloud-Angebote zu navigieren und die beste Kombination für die spezifischen Anforderungen eines Unternehmens zu finden. Dennoch kann der Nutzen exponentiell sein.

In jeden Fall lohnt es sich, das Thema gründlich zu durchdenken und Arbeitslasten nicht willkürlich in jeder verfügbaren Cloud bereitzustellen – sondern zu prüfen, was genau für einen wirklich effektiven Betrieb benötigt wird.

Doch was gibt es bei der Konfiguration einer Multi-Cloud-Einrichtung zu beachten, damit die Bedürfnisse der Kunden und Anbieter gleichermaßen im Vordergrund stehen? Welche Funktionen eignen sich am besten für bestimmte Workloads?

So einfach wie möglich: gut für Entwickler und Nutzer

Erfahrung und Produktivität von Entwicklern sind für den Geschäftserfolg in der Cloud ebenso entscheidend wie Leistung, Sicherheit, Kosten, Service und globale Präsenz.

Das bedeutet: Die Entwicklerorientierung ist eine wichtige Komponente im Rahmen einer effizienten Multi-Cloud-Einrichtung für Unternehmen. Entwickler sind der Motor unserer modernen digitalen Wirtschaft.

Von den Plattformen, auf denen sie ihre Anwendungen bereitstellen, erwarten sie Nutzerfreundlichkeit, Einfachheit und umfassende Programmierbarkeit. Sie mögen keine Hindernisse, die bei der Bereitstellung von Code hinderlich sind. Daher ist gerade der Support der Entwickler ein wichtiger Faktor beim Cloud-Shopping.

Ein entsprechendes Angebot sollte offene Toolkits, APIs, leicht integrierbare PaaS, vorintegrierte Add-ons von Drittanbietern sowie einen zügigen, zertifizierten und kompetenten technischen Support umfassen. Das schafft Flexibilität und versetzt DevOps-Team in die Lage, nahtlos Anwendungslasttests durchzuführen sowie containerisierte Basis-Workloads ohne Unterbrechung auszuführen.

Kostentransparenz und Flexibilität

Angesichts des zunehmenden wirtschaftlichen Drucks und der unsicheren Prognosen bis 2023 wollen Unternehmen maximal Kosten sparen. Die weltweiten Ausgaben der Nutzer für öffentliche Cloud-Dienste werden in diesem Jahr voraussichtlich um 20,4 Prozent auf insgesamt 494,7 Mrd. US-Dollar steigen. Im kommenden Jahr werden es voraussichtlich fast 600 Mrd. US-Dollar sein (Gartner).

Es ist also wichtig, die Plattformen smarter anstatt einfach nur härter arbeiten zu lassen. Die Nutzung eines einzigen Cloud-Anbieters ist in der Regel nicht die kosteneffizienteste Lösung.

Die Auswahl der besten Lösungen für jede Arbeitslast hat hingegen zwei besonders wichtige Effekte: Entwickler und Architekten genießen die nötige Flexibilität. Zudem werden hohe Kosten für Dienste vermieden, die nicht optimal zu den Arbeitslasten passen.

Bei der Auswahl von Cloud-Angeboten sollte die Aufmerksamkeit darauf liegen, ob die Preise prognostizierbar und die Umgebungen entwicklerfreundlich sind, sich also bei Bedarf problemlos hoch- und herunterskalieren lassen. Nicht zuletzt ist wichtig, ob sie so genannte globale Points of Presence (PoPs) bieten.

Workloads, die hohe Kosten verursachen können, erfordern einen besonders gute Performance, niedrige Latenzzeiten und eine hohe Egress-Intensität – wie etwa Spiele und Videostreaming. Die Verwendung einer Cloud-Plattform, die mit einem CDN verbunden ist, kann diesen Druck etwas mindern und eine effiziente Skalierung zu Spitzenzeiten ermöglichen.

Das bedeutet, dass sich solche Workloads am besten für ein Cloud-Angebot eignen, das jenseits von Nutzungsverpflichtungen oder komplizierten Preisen jederzeit und überall ein- und ausgeschaltet werden kann. Dazu gehören Workloads, die Portabilität und/oder regelmäßige Nutzungsmuster erfordern, wie z. B. Lasttests, Datenverarbeitung, Transcodierung und Desaster Recovery, aber auch solche, die in bestimmten Regionen bereitgestellt werden müssen.

Leistung zählt

Wichtig ist, dass die Cloud-Computing-Umgebung jederzeit und überall optimal funktioniert. Die Leistung kann darüber entscheiden, wie der Kunde den Anbieter wahrnimmt und beurteilt, ist also unmittelbar ertragsrelevant.

Typische sensible Workloads in dieser Hinsicht sind Datenverarbeitung, Echtzeitkommunikation, Aktualisierung von Live-Spielständen, Video-Streaming und die API-Verteilung. Sie alle haben oft unmittelbare Auswirkungen – und die Verbraucher nehmen Verzögerungen oder lange Wartezeiten nicht hin.

Deshalb sollte bei der Entscheidung für eine Cloud-Lösung für leistungsintensive Workloads auf Anbieter geachtet werden, die gleichermaßen Interkonnektivität, optimiertes Internet-Routing, globale PoPs und geringe Latenzzeiten bieten.

Umfang und Sicherheit

Cloud-Plattformen müssen über eine globale Reichweite, beträchtliche Netzwerkkapazitäten und leistungsfähige Datensicherheits-Funktionen verfügen, um mit immer mehr und komplexeren Unternehmensanwendungen bzw. Arbeitslasten Schritt zu halten.

In einer globalen Wirtschaft sollten Unternehmen Anwendungen sofort skalieren können, um mit lokalen Rechen- und Speicherressourcen auf Nachfrage und geografische Gegebenheiten zu reagieren. Entscheidend ist auch die Möglichkeit, Arbeitslasten an die Edge zu verlagern, um die Daten näher an die Anwender zu bringen.

Cyber-Sicherheitsbedrohungen sind nach wie vor eine allgegenwärtige Gefahr und Cyber-Kriminelle nutzen gezielt Schwachstellen in der Cloud aus. Alle Unternehmensanwendungen wie HR-, Gehaltsabrechnungs- und E-Mail-Systeme sowie Backups und Tools zur internen Zusammenarbeit und zur Unterstützung menschlicher Interaktion können Angriffen zum Opfer fallen.

Eine Cloud-Plattform mit Zero-Trust-Architektur stellt sicher, dass Nutzer nur genau den Zugang erhalten, den sie für bestimmte Aufgaben benötigen. Das kann die Auswirkungen von Cyber-Bedrohungen bedeutend abschwächen. Eine solche Plattform verwaltet die Zugangskontrolle und -segmentierung, den DDoS-Schutz und die Anwendungssicherheit.

Zudem reduziert sie das Risiko, indem sie die Zahl der Personen verringert, die Zugang zu sensiblen Daten haben. Die Wahl eines sicheren Cloud-Anbieters für die Verwaltung sensibler Arbeitslasten ist wirtschaftlich sinnvoll und kann Teil einer ebenso vielfältigen wie zweckmäßigen Multi-Cloud-Kombination sein.

Mit einem Workload-first-Ansatz müssen die geschäftlichen Anforderungen nicht an das angepasst werden, was der eine oder andere Cloud-Anbieter zur Verfügung stellen kann. Damit stehen die geschäftlichen und kundenbezogenen Prioritäten im Vordergrund – und der Nutzer profitiert von einer Vielzahl an Anbietern, deren Portfolio zu den verschiedenen Workloads passt, ohne dass ein Gedanke an komplexe Prozesse oder hohe Kosten verschwendet werden muss.

In Bezug auf die Cloud gilt daher ausnahmsweise: Mehr ist mehr!

powered by www.it-daily.net


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*