Diese 7 Fragen sollten Sie sich vor Einführung einer Cloud-Infrastruktur stellen

Der Bedarf an flexiblen und vollständig skalierbaren IT-Infrastrukturen steigt. Ein Lösungsansatz für immer mehr Unternehmen ist Cloud Computing. In vielen Unternehmen laufen gerade entsprechende Initiativen, beispielweise mit einem "Lift and Shift"-Ansatz von Legacy-Anwendungen auf Cloudplattformen. [...]

In den kommenden Jahren wird sich dieser Cloud-Trend laut den Analysten von IDC noch weiter verstärken. Sie prognostizieren eine durchschnittliche jährliche Wachstumsrate von 14,2 Prozent bei den Ausgaben für Cloud-basierte IT-Infrastrukturen außerhalb des eigenen Rechenzentrums.

Aber in der Cloud sein ist nicht alles. Die komplexen Architekturen und die unzähligen beweglichen Teile eines Cloud-Ökosystems erfordern moderne Monitoring-Funktionalitäten, herkömmliche Ansätze funktionieren hier nicht mehr. Wer Cloud-basierte Infrastrukturen für geschäftskritische Apps einführt – ob auf AWS, Azure, Google Cloud, OpenStack oder CloudFoudry –, sollte gemäß den Monitoring-Spezialisten von Dynatrace folgende Punkte beachten:

1. Wie einfach lässt sich Cloud-Monitoring implementieren, konfigurieren und warten?
Angesichts der zunehmend komplexen Umgebungen wird eine einfache Implementierung und Nutzung von Anwendungen zur Pflicht. Herkömmliche Monitoring-Lösungen erfordern oft zu viele manuelle Prozesse und Konfigurationen. Das ist ein Grund, warum die meisten Unternehmen heute nur 5 bis 10 Prozent ihrer Anwendungen überwachen können und Abhängigkeiten und Verfügbarkeiten geschäftskritischer Dienste aus den Augen verlieren. Abhilfe schafft hier eine Monitoring-Lösung, die bereits weitgehend automatisierte Prozesse nutzt – von der Erkennung der Cloud-Umgebung über die Erstellung von Baselines bis zur Analyse von Problemursachen.

2. Gibt es Echtzeit-Einblicke in die Gesundheit der Cloud-Ressourcen?
Ob bei einer Public, Private oder Hybrid Cloud, einem virtualisierten Rechenzentrum oder der Bereitstellung von Anwendungen auf CloudFoundry: Unternehmen sollten in Echtzeit eine vollständige Einsicht in den Zustand der gesamten Cloud-basierten Architektur haben. Nur dann können Sie feststellen, ob sie ihre Container unter Kontrolle haben, wie gut die Load Balancer funktionieren und wie es mit der Hypervisor-Dynamik aussieht.

Es gibt so viele sich verändernde Bestandteile in einer Cloud-Infrastruktur, dass die Ermittlung der Ursache für abweichendes System-Verhalten sehr schwierig ist. Daher sollten Unternehmen eine Cloud-Monitoring-Lösung wählen, die von Grund auf für dynamische Umgebungen entwickelt wurde. Sie kann alle toten Winkel ausleuchten und mit allen Veränderungen dynamischer Umgebungen mithalten.

3. Feuerlöschen auf Infrastrukturebene oder umfassendes Application Performance Monitoring?
Eine solide Cloud-Infrastruktur bildet das Rückgrat jedes erfolgreichen Unternehmens, doch letztlich hängt alles von den Anwendungen ab. Wenn sie ausfallen, ist die Enttäuschung unter den Nutzern groß.

Anwendungen können sich dabei über viele Technologie-Ebenen erstrecken, mit Komponenten von der Cloud über das Rechenzentrum bis zum Mainframe. Um eine vollständige Übersicht über alle Anwendungen zu erhalten, muss das Monitoring aus verschiedenen Perspektiven möglich sein, inklusive Digital Experience Analytics, Application Performance Management sowie Cloud und Infrastructure Management. Daher sollten Unternehmen ein einheitliches Monitoring-Tool nutzen, das eine Gesamtsicht der Cloud-Infrastruktur mit allen darauf laufenden Anwendungen bietet.

4. Wie schnell lassen sich Problemursachen ermitteln?
Viele Unternehmen kämpfen mit einer Überlastung durch viel zu viele Fehlermeldungen. Dies liegt häufig am Einsatz unterschiedlicher Monitoring-Tools für Rechenzentren, Hosts, Prozesse und Services. Wenn eine dieser Komponenten langsamer wird oder ausfällt, kann dies eine Kettenreaktion von hunderten Folgefehlern auslösen. Dann ertrinkt das IT-Team quasi in Alarmmeldungen. Denn herkömmliche Tools zeigen zahllose Metriken und Diagramme an, aber überlassen den Menschen die Korrelation und Interpretation dieser Angaben.

Die Lösung liegt in der Darstellung von Abhängigkeiten und Zusammenhängen. Wird jede Transaktion zu jeder Zeit erfasst und gekennzeichnet, erhält der zuständige IT-Experte auf Zusammenhängen basierende Daten. Diese harten Fakten zeigen ihm zuverlässig, was die Systemprobleme tatsächlich ausgelöst hat. Eine schnelle Darstellung der Problemursache ist Gold wert, wenn finanzielle Werte und der Ruf des Unternehmens auf dem Spiel stehen.

5. Wie werden Performance-Baselines in ultra-dynamischen Umgebungen generiert?
Die Erstellung von Performance-Baselines für das Cloud Infrastructure Monitoring ist nicht ganz einfach. Herkömmliche APM-Lösungen können hier zeitaufwändige und möglicherweise fehlerbehaftete manuelle Prozesse erfordern. Dies liegt insbesondere daran, dass sie sich auf Durchschnittswerte und Transaktionsbeispiele verlassen, um die normale Performance festzustellen.

Durchschnittswerte sind aber ineffektiv, da sie darunterliegende Probleme durch das Ausgleichen von positiven und negativen Ausreißern verdecken. Transaktionsbeispiele können dagegen zu falsch-negativen Ergebnissen führen. Für effektiv nutzbare Performance-Grundlinien von Cloud-Infrastrukturen benötigen Unternehmen ein Tool, das Perzentile (mittlere und langsamste 10 Prozent) auf Basis vollständig lückenloser Daten nutzt. Die Perzentile zeigen dabei, was wirklich geschieht, also wie die meisten Nutzer tatsächlich die Anwendung und Site erleben.

6. Umfasst das Cloud-Monitoring integriertes Log-Monitoring?
Zu den wichtigsten Funktionen von Monitoring-Lösungen gehören heute integriertes Log-Management und Log-Analyse. Denn die Überwachung der Application Performance und die Analyse damit verbundener Log-Files von Prozessen mit dem gleichen Tool hilft den Teams für DevOps, Entwicklung und Qualitätssicherung bei der schnellen und effizienten Erfüllung ihrer Aufgaben.

Wenn die Log-Analyse zu den wichtigen Aufgaben ihres Monitoring-Prozesses gehört, sollten Unternehmen eine Lösung wählen, welche diese Funktion bereits enthält. Der direkte Zugriff auf alle Log-Inhalte mit Bezug auf die geschäftskritischen Prozesse vergrößert die Reichweite des Monitorings deutlich über herkömmliche APM-Datenquellen hinaus.

7. Skaliert die Monitoring-Lösung anhand der Geschäftsanforderungen?
Nicht zuletzt muss auf die Skalierbarkeit des Monitoring-Tools geachtet werden. Moderne Cloud-Umgebungen nutzen tausende Knoten mit hunderten Technologien, die auf Rechenzentren weltweit verteilt sind. Zwar lassen sich immer mehr Monitoring-Tools für jedes Silo installieren, doch dann entstehen schnell Fragen wie: „Wie weit lässt sich das System skalieren?“ und „Wie lange dauert es, bis eine neuere, schnellere oder größere Lösung nötig wird?“

Die Wahl einer Monitoring-Lösung, die Echtzeit-Einblicke in die Cloud-Komponenten ermöglicht, ist wichtig. Aber zu gewährleisten, dass sie durch die Expansion der Umgebung nicht zusammenbricht, ist entscheidend. Daher sollten Unternehmen ein Monitoring-Tool wählen, das für große Anwendungs-Umgebungen entwickelt wurde und sich daher beliebig skalieren lässt.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*