Cloud-Bursting statt Ressourcen-Engpass

Viele IT-Systeme sind für Spitzenlasten ausgelegt und damit den Großteil der Zeit überdimensioniert, was unnötig Geld kostet. Cloud-Bursting ermöglicht es, quasi auf Knopfdruck Ressourcen zuzuschalten, die man nicht länger selbst vorhalten muss. [...]

Obwohl die IT-Infrastrukturen der meisten Unternehmen in den vergangenen Jahren durch die Möglichkeiten der Virtualisierung flexibler im Hinblick auf die Bereitstellung geworden sind, gibt es immer noch etliche kostenintensive Problemstellungen. So müssen IT-Systeme einigen Anforderungen gerecht werden, welche sich mit den Mitteln der internen IT-Abteilungen oftmals entweder nur schwer lösen lassen oder mit hohen Kosten verbunden sind. Dazu zählen unter anderem die folgenden Anforderungen:

  • Zugriffe auf IT-Services von außerhalb der Unternehmensnetzwerke: Es müssen Ressourcen für externe Nutzer oder reisende Mitarbeiter bereitgestellt werden, ohne dass die internen Systeme dadurch zu leicht gehackt oder gestört werden können. Dies betrifft beispielsweise Datenbanken und Anwendungen, die nicht als Webservice dargestellt werden können. Die parallele Bereitstellung von extern und intern zugreifbaren IT-Systemen birgt teilweise hohe Sicherheitsrisiken, da es Hacking-Methoden gibt, die es Angreifern ermöglichen, von betroffenen Gastsystemen auf den physischen Virtualisierungs-Host und von da auf andere IT-Systeme zuzugreifen.
  • Ad-hoc-Bereitstellung von Testsystemen für einzelne Abteilungen: Soll kurzfristig die Möglichkeit geschaffen werden, einzelne Programme auszuprobieren, so wird das häufig noch über lokale Virtualisierungslösungen realisiert. Für kleine Programme ist das ausreichend, aber wo testet man ein Ressourcen-hungriges Server-System? Häufig können die lokalen Systeme das nicht leisten.
  • Verfügbarkeit von zusätzlichen Systemen für Spitzenlasten: Server-Anwendungen müssen nicht ständig die höchstmöglich vorstellbare Last an Anwenderanfragen bearbeiten. Häufig treten Spitzenlasten nur zu bestimmten, kurzfristigen Zeit­räumen auf. Wenn dann aber zu diesem Zeitpunkt nicht ausreichend Ressourcen verfügbar sind, führt das schnell zu einem schlechten Ruf bei den Kunden. Also werden viele IT-Systeme für diese Spitzenlasten ausgelegt, langweilen sich aber während der restlichen Zeit zu 90 Prozent. Wenn solche Spitzenlasten zusätzlich auch noch unvorhergesehen und nicht periodisch auftreten, kann darüber hinaus oft nicht einmal adäquat reagiert werden, denn Server-Ressourcen bereitzustellen bedarf je nach Art des Dienstes einer gewissen Menge an Vorlaufzeit.

FLEXIBILITÄT
Um den geschilderten Anforderungen gerecht zu werden, kann man separate IT-Systeme bereithalten, in einem anderen Rechenzentrum gehostete Server hinzubuchen oder versuchen, kurzfristig weniger wichtige Systeme einzuschränken und die Ressourcen umzuverteilen. Aber wirklich flexibel oder einfach ist das nicht. Und mit den technischen und personellen Aufwänden steigen auch die Kosten. Mithilfe von Ressourcen in der Cloud sieht das anders aus. In Microsofts Azure beispielsweise können einzelne Anwendungen, Dienste, Server und sogar ganze Netzwerksegmente in kurzer Zeit konfiguriert und zur Verfügung gestellt werden. Dies kann auch vorab geplant und quasi schlafend bereitgestellt werden, um die bereits angesprochenen Kosten zu minimieren.

Abgetrennte Ressourcen für externe Nutzer können unidirektional aus dem internen Rechenzentrum mit Daten versorgt werden und haben im Zweifelsfall gar keine fest stehende Verbindung zum internen Netz. Für den Zugriff wird auf dem Administrationsrechner im eigenen Netz lediglich ein kleines Agentenprogramm installiert, welches die notwendigen Verbindungen zu Azure herstellen kann, um dort Einstellungen vorzunehmen oder Daten hochzuladen. Nützlich ist hierbei auch, dass Daten und Webanwendungen auf Dienst-Instanzen in der Azure Cloud direkt installiert werden können. Man muss nicht erst virtuelle Server dafür bereitstellen, sondern nutzt vorhandene Azure-Server, die nicht weiter konfiguriert werden müssen. Hierdurch kann man sich bei der Bereitstellung des Dienstes direkt auf diesen konzentrieren.

TEST-SERVER
Test-Server können skalierbar von sehr klein bis sehr groß oder auch als Farm mit unterschiedlichen Aufgaben je Server in wenigen Minuten aus Microsoft-Templates oder aus eigenen Vorlagen erstellt werden. Hierbei muss man sich nicht einmal mehr auf Microsoft-Betriebssysteme beschränken. Es gibt inzwischen auch fertige Vorlagen für die verschiedenen Linux-Distributionen.

Die Erweiterung des eigenen Netzwerks kann termingerecht geplant werden und durch das rechtzeitige Aktivieren von zusätzlichen Servern in der Cloud können die benötigten zusätzlichen Ressourcen für Spitzenlasten bereitgestellt werden. Praktisch würde das dann zum Beispiel so aussehen, dass Server für die Entwicklungsabteilung hochgefahren werden, bevor die Mitarbeiter sich morgens zu Arbeitsbeginn aufschalten. Alternativ lässt sich das Hochfahren der Server auch reaktiv mittels der System Center Suite realisieren. Bei diesem Szenario werden virtuelle Azure-Server hochgefahren, sobald die Auslastung im internen Netz vorgegebene Parameter überschreitet. Alles Weitere wird nach Wunsch vollautomatisch ausgelöst.

GLEICHE MANAGEMENT-TOOLS
Um diese Möglichkeiten nutzen zu können, muss natürlich eine ständige Verbindung zwischen dem internen Active Directory und dem Cloud-Netzwerk bestehen. Diese wird mit einem verschlüsselten VPN-Tunnel realisiert. Die Verwaltung und Konfiguration der virtuellen Server wird mit den gleichen Methoden und Werkzeugen durchgeführt, die auch für die lokalen Systeme benutzt werden. Dadurch lassen sich Schulungskosten für die Administratoren auf dieser Ebene einsparen. Auch können durch die enge Integration der Azure-Server weder interne noch externe Benutzer in diesem Fall einen Unterschied feststellen, welchen Server sie gerade nutzen.

Um ein Gefühl für die technischen Möglichkeiten der Azure-Cloud zu bekommen, kann man bei Microsoft einen Test-Account einrichten und mit einer virtuellen Maschine oder einem Dienst 90 Tage verschiedene Szenarien ausprobieren. Um einen Nutzen aus der Einführung zu ziehen, muss man sich aber vor der Einführung einige grundlegende technische und kaufmännische Gedanken zur Verwendung machen.

WICHTIGE FRAGEN
Zu den technischen Überlegungen zählen: Welche Art der technologischen Anbindung ist gewollt? Ein abgetrenntes Netzwerk mit Agent-Zugang oder eine Erweiterung des eigenen Netzwerks? Sind zusätzliche Server für die Anbindung notwendig,also beispielsweise ein AD- ­FS-Server für die Synchronisation des Active Directory? Sollen (halb-) automatische Systeme zur Steuerung genutzt werden? Ist die verfügbare Bandbreite ausreichend und redundant?

Daneben stellen sich auch kaufmännische Fragen: Können die benötigten Ressourcen kosteneffizient mit Azure bereitgestellt werden? Welche Menge an Diensten und Servern ist geplant? Die Kosten fallen je nach Azure-Abonnement monatlich an und sind häufig nur per Kreditkarte zu begleichen.

Wenn eine Automatisierung geplant ist, müssen auch die Lizenzen für die System Center Suite als Standard- oder Datacenter-Version kalkuliert werden. Sofern bereits eine frühere Version von System Center vorhanden ist, können diese Lizenzen nach einem vorgegebenen Schlüssel umgetauscht werden.

Eine sorgfältig geplante Erweiterung der IT-Infrastruktur mittels Azure Cloud und System Center kann nach anfänglich höheren Kosten für die Einführung einen hohen Einspareffekt erzielen. Zusätzliche Server-Ressourcen im eigenen Rechenzentrum können wegfallen oder sicherheitskritische Bereiche können kostengünstiger getrennt gehalten werden.

* Der Autor des Artikels, Jochen Puls, arbeitet als Senior Consultant bei Adesso.


Mehr Artikel

News

Jahrelanges Katz-und-Maus-Spiel zwischen Hackern und Verteidigern

Sophos hat den umfangreichen Forschungsbericht „Pacific Rim“ veröffentlicht, der detailliert ein jahrelanges Katz-und-Maus-Spiel aus Angriffs- und Verteidigungsoperationen mit mehreren staatlich unterstützten Cybercrime-Gruppierungen aus China beschreibt. Im Lauf der Auseinandersetzung entdeckte Sophos ein riesiges, gegnerisches Cybercrime-Ökosystem. […]

News

Salesforce kündigt autonome KI-Agenten an

Agentforce soll es Unternehmen ermöglichen, autonome KI-Agenten für zahlreiche Unternehmensfunktionen zu entwickeln und einzusetzen. So bearbeitet Agentforce beispielsweise selbstständig Kundenanliegen, qualifiziert Vertriebsleads und optimiert Marketingkampagnen. […]

News

Startschuss für neues Studium „Softwaretechnik & Digitaler Systembau“ am Biotech Campus Tulln

Mit einem fortschrittlichen Konzept und praxisnaher Ausrichtung ist der neue Bachelor-Studiengang „Softwaretechnik & Digitaler Systembau“ am Biotech Campus Tulln der Fachhochschule Wiener Neustadt erfolgreich gestartet. Unter der Leitung von Dominik Hölbling erwartet die Studierenden eine Ausbildung mit Schwerpunkt auf moderne Softwaretechnologien und innovative Digitalisierungslösungen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*