Transparenz bei Anwendungen und Infrastruktur

IT- und Cloud-Umgebungen werden immer komplexer. Konzepte wie Observability sollen sicherstellen, dass IT-Fachleute, Entwickler und Security-Spezialisten den Überblick behalten. [...]

Do it Yourself oder Komplettlösung

Auf welche Art von Observability-Lösungen ein Unternehmen zurückgreift, hängt davon ab, welche Anforderungen es hat und wie es um die Ressourcen der IT-Abteilung bestellt ist. Unternehmen mit einer hohen IT-Affinität und einer personell gut bestückten IT-Abteilung haben die Option, mithilfe von Open-Source-Tools und Frameworks wie Open Telemetry selbst eine Observability-Umgebung aufzubauen.

IT-Dienstleister wie etwa Consol Software aus München favorisieren ebenfalls quellenoffene Werkzeuge, wenn sie entsprechende Projekte bei Kunden umsetzen. Zu diesen Tools zählen beispielsweise Grafana, Prometheus, Loki und Jaeger.

„Observability wird bei deutschen Unternehmen häufig als ‚Beifang‘ bei der Transformation zu agilen Prozessen, DevOps oder cloudnativen Applikationen eingestuft.“

Martin Bauer – Partner, Cluster Reply

Die einfachere Wahl sind Komplettlösungen. Sie stehen je nach Anbieter als Cloud-Service (SaaS), als Hosted Services oder als Software für den Einsatz im Unternehmensrechenzentrum bereit. Mittlerweile haben so gut wie alle führenden Anbieter von Lösungen für Application Performance Monitoring (APM), Monitoring und Logging ihre Produkte in Richtung Observability weiterentwickelt.

Dies erfolgt teilweise durch die Übernahme von kleineren Anbietern, etwa im Fall von IBM durch den Kauf von Instana sowie bei Servicenow, das Lightstep und Era Software übernahm. Wichtig ist jedenfalls, dass die Lösung Standards wie Open Telemetry unterstützt und nicht dazu führt, dass sich der Nutzer mit einem Vendor-Lock-in konfrontiert sieht.

Außerdem sollten Observability-Lösungen Automatisierungsfunktionen bereitstellen. Das Gleiche gilt für die Option, Telemetriedaten mithilfe von Zeitreihenuntersuchungen zu analysieren, so Oliver Oehlenberg von Riverbed. „Das System sollte zudem eine Plattform nutzen, die alle Beteiligten möglichst einfach konfigurieren können“, ergänzt Martin Bauer von Cluster Reply.

MonitoringObservability
Überwachung von definierten Systemen: Ein Beispiel ist etwa die kontinuierliche Analyse der „Gesundheit“ wichtiger Systeme, Anwendungen und ServicesInterpretiert Daten von komplexen, variablen Systemen und Anwendungsumgebungen (Clouds, Hybrid-IT-Umgebungen). Bereitstellen von granularen „Insights“ und Debugging-Informationen, um Fehler nach Möglichkeit proaktiv zu beseitigen
Tracking von vordefinierten Metriken und Log-Daten: Ausgeben von Warnmeldungen, wenn Grenzwerte überschritten werden. Nutzer müssen jedoch vorgeben, welche Daten von welchen IT-Komponenten abgefragt werdenStellt verwertbare Informationen zur Verfügung. Intelligente Verfahren (KI, Machine Learning, Analytics) kommen bei der Analyse von Telemetriedaten zum Einsatz und setzen diese in verwertbare Erkenntnisse um. Dadurch lassen sich automatisch Änderungen und Optimierungen an IT-Infrastrukturen und Anwendungsumgebungen vornehmen
Sammeln von Daten: Infrastruktur-Monitoring erfasst Metriken wie Auslastung von CPU und RAM, Antwortzeiten, Fehlerraten und LatenzwerteStellt verwertbare Informationen zur Verfügung. Intelligente Verfahren (KI, Machine Learning, Analytics) kommen bei der Analyse von Telemetriedaten zum Einsatz und setzen diese in verwertbare Erkenntnisse um. Dadurch lassen sich automatisch Änderungen und Optimierungen an IT-Infrastrukturen und Anwendungsumgebungen vornehmen
Monitoring vs. Observability

Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*