Service Level Agreements bei Cloud-Diensten

SLA spielen im Cloud-Computing eine zentrale Rolle. Schließlich muss nicht nur der Cloud-Dienst selbst, sondern auch die gebotene Qualität zum Unternehmensbedarf passen. Die Servicequalität steht und fällt mit standardisiert oder individuell angebotenen SLA. [...]

Cloud-Services boomen – und mit ihnen Unübersichtlichkeit und Chaos. Zu den Vorreitern der Cloud-Bewegung – Amazon, Google und Salesforce – gesellen sich zunehmend traditionelle IT-Dienstleister, die auf den Cloud-Zug aufspringen. Das Ergebnis ist ein kaum überblickbares Wirrwarr von Infrastruktur-, Entwicklungs- und Software-as-a-Service-(Saas) Diensten – und das in unterschiedlichen Qualitätsstufen.
Für die steigende Zahl von Unternehmen, die Cloud-Services in Anspruch nehmen möchten, gestaltet sich die Auswahl eines Providers nicht einfach. Vor allem die mangelnde Vergleichbarkeit und Standardisierung der Qualität von Cloud-Diensten steht einer fundierten Bewertung im Weg. Legt ein Provider mehr Wert auf eine hohe Uptime, bekommt man beim anderen mehr IT-Ressourcen, bietet der eine seine Geschäftsbedingungen nur in Englisch an, sind sie beim anderen in Deutsch nachzulesen, ist bei dem einen der Gerichtsstand in den USA, liegt er beim anderen in Deutschland oder Österreich.
Die Qualität der Cloud-Dienstleistungen wird von den Providern in den Service Level Agreements (SLA) festgelegt – relevante Parameter sind unter anderem Verfügbarkeit, Reaktions- und Reparaturzeiten oder die Ressourcenzuteilungen etwa an Speicher und Rechenpower. Festgelegt wird auch, was bei Nichterfüllung einer Leistung passiert. Da es keine allgemeinen Standards für SLA gibt, kann jeder Cloud-Provider seine Parameter im Grunde beliebig gestalten.
WO AMAZON & CO. GEGEN ARRIVIERTE ANBIETER PUNKTEN Für Unternehmen spielen die SLA der Cloud-Services eine alles entscheidende Rolle. Die Wertigkeit eines Dienstes steht und fällt nämlich damit, ob die gebotene Qualität zu den Unternehmensanforderungen passt. Schließlich wollen sich die Betriebe die IT-Qualitätsstandards, die sie sich in den letzten Jahren erarbeitet haben – Stichwort Compliance – mit dem Übergang zum Cloud Computing erhalten und auf das neue Modell übertragen.
Die Frage ist, ob die Qualitätsvorgaben mit standardisierten SLA, wie sie die Public-Cloud-Provider Amazon, Google und Konsorten anbieten, überhaupt erfüllbar sind. Sie offerieren zwar flexible, aber durchwegs einheitliche, standardisierte Leistungsmerkmale, die nicht verhandelbar sind – manche Kritiker sprechen auch von »Low Level SLA«. Beispielsweise legt Amazon für seinen Infrastrukturdienst EC2 generell Server-Verfügbarkeiten von mindestens 99,95 Prozent innerhalb von 365 Tagen fest.
TRADITIONELLE ANBIETERE: UNFLEXIBEL ABER INDIVIDUELL Als Alternative zu diesen Cloud-Diensten bieten sich die weniger flexiblen und kostspieligeren, dafür aber individuell zugeschnittenen Cloud-Services der traditionellen IT-Dienstleister an – das sind IT-Größen wie T-Systems oder IBM Global Services, die ganz speziell an Unternehmen adressierte Private-Cloud-Dienste verkaufen.
Carlo Velten, Senior Advisor bei der Experton Group und Autor der Cloud-Vendor Benchmarks, fällt zu der Frage standardisiert oder individuell ein salomonisches Urteil. »Wenn es um unkritische Anwendungen geht, ums Testen und Entwickeln, kann man das bei den preisgünstigen Public-Cloud-Providern mit ihren standardisierten SLA wunderbar erledigen. Für simple Web-Applikationen fürs Marketing, kurzfristiges High Performance Computing oder für Genom-Analysen, bei denen man nur Rechenpower braucht, sind Amazon Cloud, Salesforce oder Microsofts Azure hervorragend geeignet.« In diesem Bereich kann man die Nachteile von standardisierten SLA und die rechtlichen Vorschriften beruhigt in Kauf nehmen. »Geringere Servicelevels, eine nicht optimale Leitungsqualität oder gelegentliche kleine Aussetzer sind bei solchen Anwendungen leicht zu verkraften«, sagt Velten.
Ähnlich sieht das Markus Eilers, Geschäftsführer von Runtime Software. Sein Spin-off Pulsd entwickelt für mittelständische Unternehmen SaaS-Angebote auf der Microsofts Azure-Plattform. »Die Verfügbarkeiten im Bereich von 99,8 – 99,9 Prozent, die von Microsoft garantiert werden, sind für unsere Kunden akzeptabel«, sagt Eilers. »Sollte ein Dienst tatsächlich einmal für kurze Zeit ausfallen, ist er für viele Unternehmen trotzdem wirtschaftlicher, als hohe Summen in garantierte 100 Prozent Verfügbarkeit zu investieren.«
Anders sieht die Sache bei unternehmenskritischen Anwendungen aus und bei Applikationen, bei denen jede Ausfallminute Geld kostet. Mission-kritische Dienste beispielsweise können Public Cloud Provider heute kaum bedienen. »Cloud-Dienstleister wie Amazon bieten überhaupt keine SLA in dem Sinn, dass eine nicht erbrachte Leistung spürbare Konsequenzen für den Diensteanbieter hat«, erklärt Ralph Treitz, Gründer und Vorstand der VMS AG aus Heidelberg. So etwas reiche ihm nicht, er brauche eine schriftliche Zusicherung, so Treitz überzeugt. Sein Unternehmen beschäftigt sich unter anderem mit DNA-Level Benchmark für SAP.
PUBLIC CLOUD AM UNTERNEHMENSFELD KAUM ZU EMPFEHLEN Für unternehmenskritische Anwendungen und sensible Daten sind die Public Clouds mit ihren Low Level SLA deshalb kaum zu empfehlen, sagen auch die Analysten. »Betreibt man über längere Zeit Enterprise Anwendungen – wie etwa ein SAP-System – auf einer Cloud-Infrastruktur genügen standardisierte SLA wie auch die ganze Infrastruktur der Public Cloud-Dienstleister nicht«, warnt der Experton-Analyst Velten. »Wenn beispielsweise das SAP-System eine Stunde nicht funktioniert, dann kann das bei manchen Unternehmen kritisch werden.«
Stehen also Sicherheit, mission critical Applications oder der langfristige Betrieb von Anwendungen im Vordergrund, sollte man sich laut Experton-Analyse eher bei den etablierten IT-Dienstleistern wie IBM, Fujitsu oder T-Systems umsehen. Die haben zwar das Cloud-Konzept nur bedingt umgesetzt, bieten aber individuelle, aushandelbare SLA, ein breites, integriertes Angebot und anpassbare L


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*