Wie Sie das Beste aus Ihren Netzwerkperformance-Management Tools herausholen

Da die meisten Unternehmen mehrere Tools für das Netzwerkperformance-Management einsetzen, ist es eine Herausforderung, sich ein einheitliches Bild davon zu machen, was sie wissen. [...]

(Anmerkung des Verfassers: Enterprise Management Associates hat untersucht, wie einzelne Unternehmen mehrere Network Performance Management (NPM)-Tools verwenden und wie sie versuchen, diese zur Effizienzsteigerung zu integrieren. In diesem Artikel stellt der Forschungsdirektor der EMA für Netzwerkmanagement Shamus McGillicuddy die Ergebnisse von „Network Performance Management for Today’s Digital Enterprise“ vor, einer aktuellen Umfrage unter 250 Netzwerkmanagern, die Best Practices für den Umgang mit diesem Thema aufzeigt.)

In einem typischen IT-Unternehmen sind heute drei bis sechs Network Performance Management (NPM)-Tools installiert, und wenn sie in sich geschlossen bleiben, wird der Netzwerkbetrieb fragmentiert und ineffizient sein – eine kontinuierliche Herausforderung für Netzwerkmanager seit vielen Jahren.

Die EMA bat 250 Netzwerkmanager, ihre bevorzugte Beschaffungsstrategie für NPM-Tools zu ermitteln, und stellte fest, dass Unternehmen eine starke Präferenz für eine vollständig integrierte, multifunktionale Plattform haben. Diesen Status erreichen sie jedoch nur selten. So stellte die EMA beispielsweise fest, dass Unternehmen, die derzeit über 11 oder mehr NPM-Tools verfügen, am ehesten eine Präferenz für diese voll integrierte Strategie angeben. Sie bekennen sich zwar zu dem Wunsch, die Tools zu konsolidieren, aber es gelingt ihnen nicht.

Warum so viele NPM-Tools?

Ein Teil des Problems ist, dass Unternehmen so viele unterschiedliche Arten von Daten mit NPM-Tools sammeln und analysieren. Infrastrukturmetriken, die über SNMP-MIBs und Traps gesammelt werden, sind eine grundlegende Datenquelle für NPM, aber sie enthalten nicht alle Informationen, die ein Netzwerkmanager von NPM-Tools benötigt.

Die meisten Unternehmen erfassen auch Verkehrsdaten, einschließlich Netzwerkflüsse, -pakete oder beides. Die EMA-Forschung beobachtete auch ein starkes Interesse am synthetischen Verkehr, der durch aktive Überwachungstools erzeugt wurde. Die beliebteste Datenquelle für die NPM-Analyse sind die APIs des Managementsystems. Mit anderen Worten, Netzwerkmanager haben ein starkes Interesse daran, Daten aus anderen IT-Managementsystemen in NPM-Tools zur Kontextanalyse zu ziehen.

Angesichts dieser Datenvielfalt ist eine Fragmentierung der Tools unvermeidlich. Schließlich zeichnet sich kein Hersteller dadurch aus, dass er alle oben genannten Datenklassen sammelt und analysiert. Sie sind in der Regel für eine oder zwei Klassen von Datentypen geeignet, was bedeutet, dass Unternehmen zwangsläufig zusätzliche NPM-Tools erwerben müssen, um Lücken in der Transparenz zu schließen.

Korrelation zwischen NPM-Tools

Die EMA bat die Teilnehmer der Umfrage, zu offenbaren, wie sie ihre Erkenntnisse über mehrere NPM-Tools hinweg korrelieren. Der beliebteste Ansatz (25% der Befragten) war die Verwendung einer Network Operations Management Plattform oder eines Managers von Managern, der Erkenntnisse aus mehreren NPM-Tools bezieht. Diese Plattformen eignen sich in der Regel gut für das Ereignismanagement und die Alarmkorrelation über mehrere NPM-Quellen hinweg.

Als nächstes nannten 19% der Befragten die direkte Integration zwischen den Point-Tools, so dass ein Tool die von einem anderen gewonnenen Erkenntnisse korrelieren kann. Dieser Ansatz kann kompliziert sein, wenn ein Unternehmen mehr als zwei Werkzeuge einsetzt.

Weitere 19% integrieren ihre NPM-Tools mit einer fortschrittlichen IT-Analytics-Plattform für künstliche Intelligenz im IT-Betrieb (AIOps), 15% integrieren NPM-Tools mit einer Service-Management-Plattform und 14% streamen NPM-Daten in einen Datensee zur korrelativen Analyse. Nur 7% gaben an, diese Korrelationen manuell durchzuführen, was gut ist, da es sich um eine ineffiziente und fehleranfällige Technik handelt. Eine Handvoll behauptete, dass sie keine Korrelation zwischen den einzelnen Werkzeugen durchführen.

Die EMA hat die Unternehmen auch gefragt, wie erfolgreich sie innerhalb dieser toolübergreifenden Korrelation waren. 27% gaben an, dass sie sehr erfolgreich waren, und 49 % waren erfolgreich. Der Rest war eher erfolgreich, eher erfolglos oder unsicher. Die EMA stufte diese letzten 24% als „weniger erfolgreich“ ein. Diese Frage nach dem Erfolg ermöglichte es der EMA, nach möglichen Best Practices zu suchen.

Unternehmen, die manuell korrelierte Insights über Tools hinweg erstellten, gehörten tendenziell zur „weniger erfolgreichen“ Kohorte. Die gängigsten Korrelationsansätze – direkte Integration zwischen Tools und Integration mit einem Manager von Managern – hatten keine statistisch signifikanten Hinweise auf Erfolg.

Best Practices

Allerdings wurden drei weniger populäre Ansätze zur toolübergreifenden Korrelation von erfolgreichen Unternehmen bevorzugt.

Erfolgreiche Unternehmen bevorzugten die Integration mit einer Service Management Plattform oder die Korrelation durch Streaming von NPM-Daten in einen Datensee zur Analyse. Sehr erfolgreiche Unternehmen haben ihre NPM-Tools mit einer AIOps-Plattform integriert.

Die EMA ist der Ansicht, dass diese drei letztgenannten Ansätze potenzielle Best Practices für die Lösung des Problems der Ausbreitung von NPM-Tools sein könnten. AIOps-Tools scheinen dabei die beste Option zu sein. Es gibt viele eigenständige AIOps-Plattformen, die diese Anforderungen erfüllen können, wie Moogsoft und Splunk. Darüber hinaus entwickeln einige NPM-Anbieter, wie Broadcom (ehemals CA), ihre eigenen AIOps-Plattformen, die die Ergebnisse ihrer Suite von NPM- und IT-Operations-Management-Tools korrelieren können.

Die EMA empfiehlt Unternehmen, AIOps-Plattformen zu testen, wenn sie mit der Ausweitung von Netzwerkmanagement-Tools zu kämpfen haben. Aber auch die Integration mit Service-Management-Plattformen oder die Nutzung eines Datensees mit einem Datenanalyse-Stack kann sich als hilfreich erweisen.

*Shamus McGillicuddy schreibt unter anderem für NetworkWorld.com


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*