Nicht immer ist das Netzwerk schuld

Cloud und Mobile Computing führen dazu, dass Daten und Applikationen immer weiter von den Endusern wegbewegt werden. In Folge steigen die Anforderungen an Unternehmensnetze und auch die Fehlersuche bei Performanceproblemen wird komplizierter. [...]

Heutzutage erfüllen Firmennetzwerke die unterschiedlichsten Aufgaben: Sie verbinden Mitarbeiter, Kunden und Vertriebspartner miteinander und unterstützen Unternehmen im Tagesgeschäft. Darüber hinaus dienen sie als Plattform für das Geschäftswachstum. Trends wie Cloud Computing, Virtualisierung und Mobile Computing fördern kontinuierlich die dynamische Weiterentwicklung der Netzwerke. Um eine bessere Kontrolle über das Netzwerk zu erlangen und Kosten zu reduzieren, zentralisieren Unternehmen deswegen Daten, Speicher und Server zunehmend.
Da Dateien und Anwendungen auf diese Weise aber auch immer weiter vom Endanwender wegbewegt werden, treten nach und nach in vielen Unternehmen Latenz- und Bandbreitenprobleme auf. Dennoch erwarten die Anwender absolute Zuverlässigkeit, Stabilität und Performance des Netzwerks, unabhängig davon, ob sie im Büro, unterwegs oder von zu Hause arbeiten. In diesem Zusammenhang ist es schwieriger als viele denken, die Quelle der Bandbreiten- und Latenz-
probleme zu finden.

PROBLEM NETZWERK-TRANSPARENZ

Die Abhängigkeit von der Netzwerk-Konnektivität führt dazu, dass Benutzer üblicherweise dem Netzwerk die Schuld dafür geben, wenn sie einmal nicht auf ihre Daten zugreifen können – häufig jedoch zu Unrecht. Während das Netzwerk sicher gelegentlich als Ursache für Performance-Schwierigkeiten gesehen werden kann, ist oft ein Problem, das gar nichts mit dem Netzwerk selbst zu tun hat, die Ursache für eine Verlangsamung der Anwendung oder Netzwerk-Performance, beispielsweise nicht installierte Updates. Wenn Netzwerk-Manager daraufhin versuchen, die Ursachen eines Problems zu identifizieren, das nicht wirklich existiert, führt das zu viel Frustration.
IT-Abteilungen sind daher gut beraten, einen umfassenden Einblick in ihre Netzwerke zu bekommen, damit sie Performance-Probleme beheben können, bevor sie sich negativ auf das Geschäft auswirken. Je früher also das tatsächliche Pro-blem erkannt wird, desto eher kann nach einer Lösung gesucht werden und desto schneller können Mitarbeiter wieder effizient arbeiten.

ABHÄNGIGKEITEN DURCHSCHAUEN

Ein umfassender Einblick in das Netzwerk ist besonders auch im Hinblick auf individuelle Anwendungen, Server und Mitarbeiter, die die Netzwerke nutzen, sowie die Abhängigkeiten zwischen diesen Faktoren wichtig. Nur so kann die Überwachung und Problembehandlung gelingen, insbesondere bei der Planung von IT-Projekten, die in die Bereiche Konsolidierung, Disaster Recovery oder Cloud Computing fallen. Es ist schlichtweg unmöglich, Netzwerkänderungen ohne Unterbrechungen vorzunehmen, deshalb müssen die IT-Assets vorher richtig identifiziert und abgebildet werden.
Es gibt einen besseren Weg für IT-Abteilungen, den Überblick über ihre Netzwerke zu behalten. Dieser beinhaltet proaktives Netzwerk-Management, basierend auf einer Netzwerk-Verhaltensanalyse. In Kombination mit einem effizienten Discovery- und Dependency-Mapping-Prozess können Unternehmen IT-Performance-Probleme schnell identifizieren und darauf reagieren, bevor sie Auswirkungen auf das Unternehmen haben.

PERFORMANCE-MANAGEMENT

Auf Analysen basierende Netzwerk-Performance-Management-Lösungen (NPM) schreiben automatisch Dutzende von unterschiedlichen Performance-Merkmalen fest, kontrollieren sie und senden der IT proaktive Warnmeldungen bei eventuellen, signifikanten Veränderungen. So kann die IT-Abteilung oft schon reagieren, bevor sich der Benutzer überhaupt bewusst wird, dass es Verschlechterungen in der Anwendungs- oder Netzwerk-Performance gibt. Wenn Bedenken gemeldet werden, kann die Ursache des Problems schnell erkannt werden, so dass sich IT-Manager auf die Lösung des Problems konzentrieren können.
Flow-basierende Discovery- und Dependency-Mapping-Programme sind ein weiterer wichtiger Bestandteil einer erfolgreichen Netzwerk-Performance-Management-Strategie. Discovery-Programme werden verwendet, um IT-Assets und deren Abhängigkeiten anzuzeigen. Sie identifizieren alle relevanten Komponenten, die benötigt werden, um dem Endnutzer eine Anwendung als Service zu liefern. Dazu zählen beispielsweise Applikationsserver, Webserver, Loadbalancer, Datenbanken, Authentifizierungsserver und verschiedene Netzwerkkomponenten. Das Verständnis von Anwendungsabhängigkeiten erleichtert nicht nur die Lokalisierung der Quelle von Performance-Engpässen, sondern führt auch dazu, dass IT-Konsolidierung, Virtualisierungsprojekte, Cloud-Initiativen und andere Änderungen am Netzwerk problemlos durchgeführt werden können. Dementsprechend ist es heute zunehmend eher die Regel als die Ausnahme, dass IT-Mitarbeiter auf dem aktuellsten Stand sind und eine genaue Sicht auf das Netzwerk haben, sowohl vom Anwendungslevel her, als auch auf dem Service-Level.

SCHNELLE PROBLEMLÖSUNG

Darüber hinaus kann ein umfassendes Dashboard mehr als nur eine transparentere Überwachung bieten. Es kann bei 
einer langfristigen Planung helfen sowie die Umsetzung von angemessenen Netzwerk-Richtlinien unterstützen, so dass sowohl Endanwender als auch Unternehmen davon profitieren. Das Analystenhaus IDC hat erst kürzlich eine Studie veröffentlicht, in der auch Riverbed-Kunden befragt wurden. Dabei stellte sich heraus, dass die durchschnittliche Zeit, um ein IT-Problem zu lösen, um 83 Prozent reduziert werden konnte, nachdem NPM-Tools implementiert wurden. Die Gesprächsdauer mit dem Helpdesk konnte sogar um 87 Prozent gesenkt werden. Insgesamt konnten Ausfallzeiten pro Monat um 30 Prozent gesenkt werden und die durchschnittliche Dauer der Vorfälle wurde um mehr als die Hälfte reduziert.
Firmennetzwerke entwickeln sich dynamisch weiter entsprechend dem Einzug von Cloud Computing, Virtualisierung, Bandbreiten-intensiven oder Latenz-sensiblen Anwendungen (beispielsweise Sprache und Video) und Mobile Computing. Folglich werden sowohl die Verwaltung von unternehmensweiten IT-Netzwerken, als auch die Aufrechterhaltung einer hohen Performance und Sicherheit zu einer zunehmend anspruchsvollen Aufgabe. Mit auf Analysen basierenden NPM-Lösungen und der Kombination von Netzwerk- und Anwendungs-Monitoring können IT-
Organisationen Probleme sofort angehen und Netzwerk-Ressourcen besser zuordnen. So kann letztendlich die IT mit den wirtschaftlichen sowie operativen Zielen des Unternehmens besser in Einklang 
gebracht werden.
* Christian Lorentz arbeitet als Product Marketing Manager bei dem Netzwerkspezialisten Riverbed Technology.

Mehr Artikel

News

Internationale Konferenz zeigt den Weg zur datengetriebenen Zukunft

Am 13. November 2024 fand im Bundesministerium für Klimaschutz, Umwelt, Energie, Mobilität, Innovation und Technologie (BMK) die Global Data Spaces Connect 2024 (GDSC24) statt, eine internationale Plattform, die Akteur:innen aus Wirtschaft, Wissenschaft und öffentlicher Verwaltung zu einem Austausch über den aktuellen Stand und die Zukunft der Datenräume (Data Spaces) zusammenbrachte. […]

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*