Observability erhöht Produktivität und Geschwindigkeit von Entwicklungsteams

Splunk hat seinen Lagebericht Observability 2024 veröffentlicht. Dabei wird deutlich: für Unternehmen ist Observability heute wichtiger denn, um Wettbewerbsfähigkeit und Resilienz zu gewährleisten und hat sich zu einem entscheidenden Wettbewerbsvorteil entwickelt, der die Produktivität von Entwicklern, die Kundenzufriedenheit und das Kostenmanagement verbessert. [...]

Durch die Etablierung führender Observability-Praktiken können Unternehmen ihren gesamten digitalen Fußabdruck verstehen und die Auswirkungen von Ausfallzeiten reduzieren. So geben 68 Prozent der LeaderUnternehmen an, dass sie Anwendungsprobleme innerhalb von Minuten oder Sekunden nach einem Ausfall bemerken. (c) stock.adobe.com/Katavudh

Splunk hat in Zusammenarbeit mit der Enterprise Strategy Group (ESG) den Lagebericht Observability 2024 veröffentlicht. Diese globale Studie untersucht die Rolle von Observability angesichts zunehmend komplexer IT-Umgebungen von heute und steigender Kundenerwartungen. Die Studie zeigt auf, dass sich Observability zu einem erfolgsentscheidenden Faktor im Wettbewerb entwickelt hat, wobei die Observability-Leader Jahresrenditen verzeichnen, die das 2,67-fache ihrer Ausgaben betragen. Diese Unternehmen lösen Probleme schneller, steigern die Produktivität ihrer Entwicklungsteams, können ihre Kosten kontrollieren und sorgen für zufriedene Kundschaft. Aufgrund dieser Vorteile planen 86 Prozent aller Befragten, ihre Investitionen in Observability zu erhöhen. Der vierte jährliche Lagebericht, der auf einer Befragung von 1.850 Fachleuten aus ITOps und Entwicklung basiert, bietet die bislang umfassendste Analyse der Observability-Branche.

Einordnung führender Observability-Praktiken

Führende Observability-Praktiken entstehen nicht von selbst, sondern werden strategisch aufgebaut. Der Bericht skizziert ein neues Reifegrad-Framework, das in vier Stufen unterteilt ist: grundlegende Transparenz, geführte Erkenntnisse, proaktive Reaktionen und einheitliche Prozesse. In diesem Rahmen wurden die Befragten in eine von vier Reifegrad-Stufen eingeteilt: „Einsteiger“ (45 Prozent), „Mittelfeld“ (27 Prozent), „Verfolger“ (17 Prozent) und schließlich „Leader“ (11 Prozent).

Leader lösen Probleme schneller und reduzieren die Auswirkungen von Ausfallzeiten

Durch die Etablierung führender Observability-Praktiken können Unternehmen ihren gesamten digitalen Fußabdruck verstehen und die Auswirkungen von Ausfallzeiten reduzieren. 68 Prozent der Leader-Unternehmen geben an, dass sie Anwendungsprobleme innerhalb von Minuten oder Sekunden nach einem Ausfall bemerken – das sind 2,8 mal mehr als bei den Einsteiger-Unternehmen. Die Leader schätzen auch, dass 80 Prozent ihrer Warnmeldungen berechtigt sind (während die Einsteiger die Verlässlichkeit bei 54 Prozent ansetzen). Das bedeutet mehr Handlungssicherheit und weniger Zeitaufwand für die Bearbeitung von Fehlalarmen. Diese Unterschiede bei Genauigkeit und Reaktionszeit sind insofern von Bedeutung, als die Erwartungen der Kundschaft an nahtlose und sichere digitale Experiences so hoch sind wie nie zuvor. Untersuchungen haben gezeigt, dass sich Ausfallzeiten negativ auf die Kundentreue und die öffentliche Wahrnehmung auswirken.

Der Zeitfaktor verschafft den Leader-Unternehmen einen Vorsprung bei der Softwareentwicklung. 76 Prozent der Leader spielen ihren Anwendungscode größtenteils on Demand aus – deutlich mehr als die Einsteiger (30 Prozent). Darüber hinaus müssen sich die Entwicklungsteams in Leader-Unternehmen weniger mit mühsamen Aufgaben wie Troubleshooting und Incident-Priorisierung aufhalten, sodass ihnen 38 Prozent mehr Zeit für Innovationen bleiben als den Teams der Einsteiger-Unternehmen. Dass die LeaderUnternehmen durch die höhere Produktivität und die besseren Ergebnisse der Entwicklungsteams ihre Rentabilität steigern, liegt auf der Hand.

„Der Aufbau von Observability-Praktiken auf Leader-Level bedeutet, dass Sie geradezu davon besessen sind, Ihrer Kundschaft unglaubliche digitale Erlebnisse zu bieten, und dass diese Denkweise bei all Ihren Entscheidungen zum Tragen kommt“, sagt Patrick Lin, Senior Vice President und General Manager Observability bei Splunk. „Unser Bericht zeigt, dass sich diese Denkweise auszahlt. Leader haben nicht nur mehr Erfolg bei der Reduzierung der Ausfallzeiten, sondern steigern auch die Innovationskraft und das Tempo ihrer Entwicklungsteams.“

OpenTelemetry ist die solide Grundlage erfolgreicher Observability-Praktiken

OpenTelemetry, ein Open-Source-Branchenstandard zur Datenerfassung, setzt sich immer mehr durch. Das Projekt der Cloud Native Computing Foundation (CNCF) gibt Unternehmen die Kontrolle über ihre Daten und umgeht die Abhängigkeit von bestimmten Anbietern. Insgesamt sagen 58 Prozent der Unternehmen, dass ihre Observability-Lösung auf OpenTelemetry basiert. Der Lagebericht zeigt, inwiefern OpenTelemetry die Grundlage effektiver Observability-Praktiken ist.

  • OpenTelemetry ist ein Indikator für Innovation und Resilienz: 78 Prozent der Leader setzen auf den Open-Source-Standard, 57 Prozent nennen geringere Observability-Kosten als Vorteil.
  • OpenTelemetry bietet unvergleichliche Flexibilität. 72 Prozent der Leader nutzen OpenTelemetry, weil sie damit Zugang zu einem ausgedehnten Ökosystem von Technologien erhalten, 65 Prozent sagen, dass ihnen das Open-Source-Projekt mehr Kontrolle über ihre Daten und mehr Datenhoheit ermöglicht.

KI steigert die betriebliche Effizienz

Der Observability-Einsatz von KI und ML (maschinellem Lernen) ist mittlerweile gang und gäbe. Fast alle Befragten (97 Prozent) nutzen KI/ML-gestützte Systeme zur Optimierung der Observability-Prozesse – das sind deutlich mehr als noch im Vorjahr (66 Prozent). Weil KI und ML sehr gut in der Verarbeitung und der Analyse großer Datenmengen sind, lassen sich damit Anomalien erkennen, Fehler-Ursachen identifizieren, Maßnahmen empfehlen und Aufgaben automatisieren, sodass die Teams schneller an die Erkenntnisse kommen, die sie brauchen.

  • 57 Prozent der Befragten geben an, dass bei ihnen die Menge der Warnmeldungen ein Problem darstellt. Die Leader leiden weit weniger unter diesem Warnmelderauschen: 85 Prozent klären mindestens die Hälfte ihrer Warnmeldungen mithilfe der Empfehlungen von KI/ML-gestützten Tools. Im Gegensatz dazu können nur dies nur 16 Prozent der Einsteiger-Unternehmen von sich behaupten.
  • 65 Prozent der Leader nutzen intelligente, automatisierte AIOps-Funktionen zur Ermittlung von Fehler-Ursachen und zur Klärung von Incidents.

Platform Engineering läutet die DevOps-Zukunft ein

Platform Engineering stärkt und optimiert die Experience der Entwicklungsteams. 73 Prozent der Befragten praktizieren Platform Engineering bereits umfassend. Im Wesentlichen ist Platform Engineering ein Ansatz, bei dem die Fachleute aus dem Software Engineering gemeinsame Toolchains, Workflows und Selfservice-Plattformen nutzen, sodass sie weniger Zeit für das Management ihrer Tools aufwenden müssen und sich stattdessen mehr darauf konzentrieren können, neue, innovative Produkte auf den Markt zu bringen. Diese Disziplin kommt den überlasteten ITOps- und Engineering-Teams ganz gelegen, denn 66 Prozent der Befragten berichten, dass im vergangenen Jahr wichtige Fachkräfte wegen Burnout ausgeschieden sind.

  • Unternehmen, die ein dediziertes Platform-Engineering-Team zusammengestellt haben, profitieren davon: Auf die Frage nach den drei wichtigsten Ergebnissen von Platform Engineering nennen 55 Prozent der Befragten eine höhere Effizienz der IT Operations, 42 Prozent eine verbesserte Anwendungsleistung und 40 Prozent eine gesteigerte Entwicklungsproduktivität.
  • 58 Prozent der Leader betrachten Platform Engineering als Wettbewerbsvorteil.

Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*