Von Hochverfügbarkeit ist häufig die Rede, aber nur wenige Unternehmen haben wirklich hochverfügbare Systeme implementiert. Ein Grund dafür ist, dass gerade das Thema Hochverfügbarkeit mit zahlreichen falschen Vorstellungen und längst überholten Auffassungen belastet ist. Stratus hat sich zehn der beliebtesten Hochverfügbarkeits-Mythen vorgeknüpft. [...]
Im Zeitalter von Always-On ist eine hohe Verfügbarkeit der IT-Systeme für Unternehmen lebenswichtig, denn ohne IT funktionieren die Geschäftsprozesse nicht. Trotzdem sind die meisten Unternehmen beim Thema Hochverfügbarkeit überaus zurückhaltend. Einige meinen, das Thema würde sie nicht betreffen, andere erkennen zwar grundsätzlich die Risiken nicht hochverfügbarer Systeme, sehen aber nicht, wie sie sich als kleinere oder mittlere Unternehmen dagegen absichern könnten. Stratus nimmt diese Auffassungen zum Anlass, mit den Mythen, die rund um das Thema Hochverfügbarkeit entstanden sind, ein wenig aufzuräumen.
- Normale Server bieten heute ausreichend Sicherheit: Tatsächlich sind Server in den letzten Jahren wesentlich zuverlässiger geworden. Allerdings sind auch die Anforderungen gestiegen: Unternehmen betreiben unternehmenskritische Anwendungen heute auf Standard-Servern. Solche Anwendungen müssen kontinuierlich verfügbar sein, sonst können hohe Verluste entstehen, die möglicherweise sogar die Existenz des Unternehmens gefährden. Standard-Server unter Linux und Windows erreichen heute eine Verfügbarkeit von etwa 99,9 Prozent – was einer durchschnittlichen Ausfallzeit von 8,7 Stunden pro Jahr entspricht. Für unternehmenskritische Aufgaben sind jedoch mindestens 99,99 Prozent, in der Regel sogar 99,999 Prozent erforderlich, die Server fallen dann maximal 5 Minuten im Jahr aus.
- Hochverfügbarkeit ist nur für große Unternehmen relevant: Ausnahmslos alle Unternehmen sind heute von ihrer IT abhängig und müssen daher Risikovorsorge betreiben. Einige Lösungen wie fehlertolerante Server oder hochverfügbare Software-Lösungen sind aufgrund des geringen Aufwands für Implementierung und Administration auch für kleinere und mittlere Unternehmen geeignet.
- Hochverfügbarkeit ist teuer: Die Kosten von Hochverfügbarkeits-Lösungen müssen im Verhältnis zum möglichen Schaden gesehen werden. Tatsächlich ist Hochverfügbarkeit heute auch für kleinere Unternehmen erschwinglich. Fehlertolerante Server kosten unterm Strich sogar weniger als entsprechende Cluster-Lösungen, weil keine zusätzlichen Kosten für Software-Anpassung, zusätzliche Lizenzen oder eine aufwändige Administration anfallen.
- Hochverfügbarkeit ist aufwändig zu administrieren: Cluster-Lösungen erfordern tatsächlich aufwändige Implementierung und Administration. Fehlertolerante Server, die aus komplett redundanten Komponenten aufgebaut sind, verhalten sich gegenüber dem Benutzer wie ganz normale Server; die Administration ist Stratus zufolge nicht schwieriger als bei einem Standard-Server.
- Hochverfügbarkeit erfordert spezielle Applikationen: Nur für Cluster-Lösungen müssen die Applikationen angepasst werden. Fehlertolerante Server arbeiten mit Standard-Technologien, so dass Windows- und Linux-Applikationen ohne Anpassungen oder Änderungen betrieben werden können. Anwender benötigen hier für ihre Applikation auch jeweils nur eine einzige Lizenz, was die Gesamtkosten der Lösung reduziert.
- Cluster bieten ausreichende Sicherheit: Cluster arbeiten im Störungsfall nicht völlig unterbrechungsfrei, weil beispielsweise System-Dienste und Programme neu gestartet oder Datenbank-Transaktionen zurückgesetzt werden müssen. Je nach Komplexität der Applikationen können mehrere Minuten vergehen, bis alle Systeme wieder uneingeschränkt zur Verfügung stehen. In Extremfällen kann die Übergabe der Prozesse aber auch mehrere Stunden dauern, warnt Stratus.
- Virtualisierung macht Hochverfügbarkeit überflüssig: Das Gegenteil ist richtig. Werden auf einem physischen Server mehrere virtuelle Umgebungen betrieben, so sind von einem Hardware-Ausfall immer gleich mehrere Server mitsamt den Anwendungen betroffen. Ein einziger defekter physischer Server zieht also eine ganze virtuelle Server-Gruppe mit sich – und für jedes System müssen dann mehr oder weniger aufwändige Maßnahmen zur Wiederherstellung des Betriebs vorgenommen werden. Wichtige Anwendungen müssen daher – gerade auf virtuellen Servern – auch eine hochverfügbare Hardware-Plattform haben.
- Disaster Recovery und Hochverfügbarkeit sind dasselbe: Disaster Recovery bietet Katastrophenschutz. Unternehmen schützen damit ihre IT vor Bränden, Erdbeben, Flugzeugabstürzen oder Anschlägen. Hochverfügbarkeit sorgt dagegen für den Schutz der IT bei internen technischen Störungen. Verantwortungsvolle Unternehmen werden daher immer beides in ihrem Sicherheitskonzept berücksichtigen.
- Hochverfügbare Systeme basieren auf proprietären Technologien: Fehlertolerante Server arbeiten mit Standard-Technologien wie Intel-x86, Windows oder Linux, Software-Lösungen bauen auf dem Open-Source-Server Xen auf. Diese Systeme erreichen ihre hohe Ausfallsicherheit indem sie die Standard-Technologien redundant auslegen, so dass alle betriebswichtigen Teile doppelt vorhanden sind.
- Hochverfügbarkeit haben wir schon: Viele Unternehmen verwenden unterschiedliche Technologien, um ihre IT abzusichern. Der Einsatz einer USV oder die Durchführung regelmäßiger Backups sind zwar unerlässlich, machen ein System aber keineswegs hochverfügbar. (pi/rnf)
Be the first to comment