Service Level Agreements bei Cloud-Diensten

SLA spielen im Cloud-Computing eine zentrale Rolle. Schließlich muss nicht nur der Cloud-Dienst selbst, sondern auch die gebotene Qualität zum Unternehmensbedarf passen. Die Servicequalität steht und fällt mit standardisiert oder individuell angebotenen SLA. [...]

Cloud-Services boomen – und mit ihnen Unübersichtlichkeit und Chaos. Zu den Vorreitern der Cloud-Bewegung – Amazon, Google und Salesforce – gesellen sich zunehmend traditionelle IT-Dienstleister, die auf den Cloud-Zug aufspringen. Das Ergebnis ist ein kaum überblickbares Wirrwarr von Infrastruktur-, Entwicklungs- und Software-as-a-Service-(Saas) Diensten – und das in unterschiedlichen Qualitätsstufen.
Für die steigende Zahl von Unternehmen, die Cloud-Services in Anspruch nehmen möchten, gestaltet sich die Auswahl eines Providers nicht einfach. Vor allem die mangelnde Vergleichbarkeit und Standardisierung der Qualität von Cloud-Diensten steht einer fundierten Bewertung im Weg. Legt ein Provider mehr Wert auf eine hohe Uptime, bekommt man beim anderen mehr IT-Ressourcen, bietet der eine seine Geschäftsbedingungen nur in Englisch an, sind sie beim anderen in Deutsch nachzulesen, ist bei dem einen der Gerichtsstand in den USA, liegt er beim anderen in Deutschland oder Österreich.
Die Qualität der Cloud-Dienstleistungen wird von den Providern in den Service Level Agreements (SLA) festgelegt – relevante Parameter sind unter anderem Verfügbarkeit, Reaktions- und Reparaturzeiten oder die Ressourcenzuteilungen etwa an Speicher und Rechenpower. Festgelegt wird auch, was bei Nichterfüllung einer Leistung passiert. Da es keine allgemeinen Standards für SLA gibt, kann jeder Cloud-Provider seine Parameter im Grunde beliebig gestalten.
WO AMAZON & CO. GEGEN ARRIVIERTE ANBIETER PUNKTEN Für Unternehmen spielen die SLA der Cloud-Services eine alles entscheidende Rolle. Die Wertigkeit eines Dienstes steht und fällt nämlich damit, ob die gebotene Qualität zu den Unternehmensanforderungen passt. Schließlich wollen sich die Betriebe die IT-Qualitätsstandards, die sie sich in den letzten Jahren erarbeitet haben – Stichwort Compliance – mit dem Übergang zum Cloud Computing erhalten und auf das neue Modell übertragen.
Die Frage ist, ob die Qualitätsvorgaben mit standardisierten SLA, wie sie die Public-Cloud-Provider Amazon, Google und Konsorten anbieten, überhaupt erfüllbar sind. Sie offerieren zwar flexible, aber durchwegs einheitliche, standardisierte Leistungsmerkmale, die nicht verhandelbar sind – manche Kritiker sprechen auch von »Low Level SLA«. Beispielsweise legt Amazon für seinen Infrastrukturdienst EC2 generell Server-Verfügbarkeiten von mindestens 99,95 Prozent innerhalb von 365 Tagen fest.
TRADITIONELLE ANBIETERE: UNFLEXIBEL ABER INDIVIDUELL Als Alternative zu diesen Cloud-Diensten bieten sich die weniger flexiblen und kostspieligeren, dafür aber individuell zugeschnittenen Cloud-Services der traditionellen IT-Dienstleister an – das sind IT-Größen wie T-Systems oder IBM Global Services, die ganz speziell an Unternehmen adressierte Private-Cloud-Dienste verkaufen.
Carlo Velten, Senior Advisor bei der Experton Group und Autor der Cloud-Vendor Benchmarks, fällt zu der Frage standardisiert oder individuell ein salomonisches Urteil. »Wenn es um unkritische Anwendungen geht, ums Testen und Entwickeln, kann man das bei den preisgünstigen Public-Cloud-Providern mit ihren standardisierten SLA wunderbar erledigen. Für simple Web-Applikationen fürs Marketing, kurzfristiges High Performance Computing oder für Genom-Analysen, bei denen man nur Rechenpower braucht, sind Amazon Cloud, Salesforce oder Microsofts Azure hervorragend geeignet.« In diesem Bereich kann man die Nachteile von standardisierten SLA und die rechtlichen Vorschriften beruhigt in Kauf nehmen. »Geringere Servicelevels, eine nicht optimale Leitungsqualität oder gelegentliche kleine Aussetzer sind bei solchen Anwendungen leicht zu verkraften«, sagt Velten.
Ähnlich sieht das Markus Eilers, Geschäftsführer von Runtime Software. Sein Spin-off Pulsd entwickelt für mittelständische Unternehmen SaaS-Angebote auf der Microsofts Azure-Plattform. »Die Verfügbarkeiten im Bereich von 99,8 – 99,9 Prozent, die von Microsoft garantiert werden, sind für unsere Kunden akzeptabel«, sagt Eilers. »Sollte ein Dienst tatsächlich einmal für kurze Zeit ausfallen, ist er für viele Unternehmen trotzdem wirtschaftlicher, als hohe Summen in garantierte 100 Prozent Verfügbarkeit zu investieren.«
Anders sieht die Sache bei unternehmenskritischen Anwendungen aus und bei Applikationen, bei denen jede Ausfallminute Geld kostet. Mission-kritische Dienste beispielsweise können Public Cloud Provider heute kaum bedienen. »Cloud-Dienstleister wie Amazon bieten überhaupt keine SLA in dem Sinn, dass eine nicht erbrachte Leistung spürbare Konsequenzen für den Diensteanbieter hat«, erklärt Ralph Treitz, Gründer und Vorstand der VMS AG aus Heidelberg. So etwas reiche ihm nicht, er brauche eine schriftliche Zusicherung, so Treitz überzeugt. Sein Unternehmen beschäftigt sich unter anderem mit DNA-Level Benchmark für SAP.
PUBLIC CLOUD AM UNTERNEHMENSFELD KAUM ZU EMPFEHLEN Für unternehmenskritische Anwendungen und sensible Daten sind die Public Clouds mit ihren Low Level SLA deshalb kaum zu empfehlen, sagen auch die Analysten. »Betreibt man über längere Zeit Enterprise Anwendungen – wie etwa ein SAP-System – auf einer Cloud-Infrastruktur genügen standardisierte SLA wie auch die ganze Infrastruktur der Public Cloud-Dienstleister nicht«, warnt der Experton-Analyst Velten. »Wenn beispielsweise das SAP-System eine Stunde nicht funktioniert, dann kann das bei manchen Unternehmen kritisch werden.«
Stehen also Sicherheit, mission critical Applications oder der langfristige Betrieb von Anwendungen im Vordergrund, sollte man sich laut Experton-Analyse eher bei den etablierten IT-Dienstleistern wie IBM, Fujitsu oder T-Systems umsehen. Die haben zwar das Cloud-Konzept nur bedingt umgesetzt, bieten aber individuelle, aushandelbare SLA, ein breites, integriertes Angebot und anpassbare L


Mehr Artikel

News

Public Key Infrastructure: Best Practices für einen erfolgreichen Zertifikats-Widerruf

Um die Sicherheit ihrer Public Key Infrastructure (PKI) aufrecht zu erhalten, müssen PKI-Teams, sobald bei einer Zertifizierungsstelle eine Sicherheitslücke entdeckt worden ist, sämtliche betroffenen Zertifikate widerrufen. Ein wichtiger Vorgang, der zwar nicht regelmäßig, aber doch so häufig auftritt, dass es sich lohnt, PKI-Teams einige Best Practices für einen effektiven und effizienten Zertifikatswiderruf an die Hand zu geben. […]

News

UBIT Security-Talk: Cyberkriminalität wächst unaufhaltsam

Jedes Unternehmen, das IT-Systeme nutzt, ist potenziell gefährdet Opfer von Cyberkriminalität zu werden, denn die Bedrohung und die Anzahl der Hackerangriffe in Österreich nimmt stetig zu. Die Experts Group IT-Security der Wirtschaftskammer Salzburg lädt am 11. November 2024 zum „UBIT Security-Talk Cyber Defense“ ein, um Unternehmen in Salzburg zu unterstützen, sich besser gegen diese Bedrohungen zu wappnen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*