Transparenz bei Anwendungen und Infrastruktur

IT- und Cloud-Umgebungen werden immer komplexer. Konzepte wie Observability sollen sicherstellen, dass IT-Fachleute, Entwickler und Security-Spezialisten den Überblick behalten. [...]

Drei Säulen – oder mehr

Der klassische Observability-Ansatz beruht auf den folgenden drei Säulen:

  • Logging: Klassische Log-Daten, die in großer Zahl anfallen und erfasst, konsolidiert und visualisiert werden müssen.
  • Metriken: Sie sind wichtig, damit sich die Performance von Anwendungen und IT-Umgebungen über einen längeren Zeitraum hinweg kontrollieren lässt. Diese Metriken erstellt das Observability-Tool. Beispiele sind klassische Wert wie CPU-Auslastung und Latenzzeiten, aber auch die Zahl der Instanzen von Microservices und die „Readiness“ von Containern.
  • Tracing/Traces: Die Zahl und Wege der Anfragen der Services, aus denen moderne Anwendungen aufgebaut sind. Diese Anfragen zielen unter anderem auf externe IT-Ressourcen. Bei Applikationen verfolgen Traces die gesamte „Reise“ einer Anfrage eines Nutzers, vom Start einer Anwendung auf einem Endgerät bis hin zu den Prozessen, die im Back-End ausgelöst werden.

Allerdings sind Diskussionen darüber entbrannt, ob nicht weitere Elemente berücksichtigt werden müssten. Dazu zählen die Abhängigkeiten (Dependencies) von Anwendungen von anderen Applikationen, IT-Komponenten und Ressourcen in Unternehmensrechenzentren und Cloud-Data-Centern.

„Mit Observability verschaffen sich Unternehmen einen umfassenden Einblick in das Verhalten, die Leistung und den Zustand ihrer Applikationen.“

Tommy Ziegler – Leader Sales Engineering, Cisco Appdynamics

Data Scientists und DevOps-Teams wiederum wollen die Herkunft und Qualität von Daten (Data Lineage) als weitere Säule in das Modell aufnehmen. Diese Überle­gungen stellen sie auch vor dem Hintergrund an, dass
das Management von Daten und die Kontrolle über solche Informationsbestände für viele Unternehmen eine zentrale Rolle spielt.

Wichtig ist angesichts dieser Tendenzen, dass sich keine spezialisierten Observability-Lösungen herausbilden, die nicht mehr mit anderen Lösungen Daten austauschen können. Dies würde dem Ansatz zuwiderlaufen, Datensilos zu vermeiden.

Stattdessen sollten Lösungen zur Wahl stehen, die sich durch einen großen Funktionsumfang, offene Schnittstellen, eine Vielzahl von Integrationen mit anderen Tools und IT-Lösungen sowie zentrale Dashboards auszeichnen.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*