Client-Management: Sind es nur Bäume oder ist es ein Wald?

Der Prototyp eines Netzwerk-Clients ist der klassische Windows PC am LAN-Kabel. Doch Trends wie BYOD, Mobility, Cloud Computing, Machine-to-Machine-Kommunikation (M2M) sowie Server- und Desktop-Virtualisierung sorgen für eine zuvor unbekannte Diversifizierung der Endgeräte und der Übertragungswege von Daten. Einer der Effekte dieser Entwicklungen ist, dass die Zahl der Clients massiv steigt. Modern ausgestattete Unternehmen haben mehr IP-Adressen als Mitarbeiter. Ein weiterer Effekt ist, dass sich viele Fehlfunktionen zwar auf dem Client bemerkbar machen, die Ursachen aber ganz woanders liegen. [...]

EIN AUGE AUF DIE ANWENDUNGEN
Die Überwachung funktioniert auch bei Cloud-Anwendungen wie Salesforce: Der Administrator kann mittels APM die Performance zur Weboberfläche kontinuierlich messen. Hierfür nutzt er ein Skript, das einen Standard-Vorgang durchführt und die Antwortzeiten misst. Der Administrator erhält die Leistungsschwankungen grafisch dargestellt.

Ein weiteres Support-Beispiel aus einem Unternehmen, welches sogar selbst in der IT Branche tätig ist: Eine schlechte Leistung der Applikationen plagte dort die Endanwender. Der Administrator kam schnell dahinter, dass es sich um Verbindungsprobleme in der Netzwerkinfrastruktur handelte. Aber erst mittels Netzwerkmonitoring konnte er die Ursache feststellen: Man hatte bei den Netzwerkswitches am falschen Ende gespart. Bestimmte nicht-originale Zusatzmodule der Switche  waren dafür verantwortlich, dass mehr als zehn Prozent der über den Switch gesendeten Datenpakete nicht korrekt am Ziel ankamen oder nicht richtig verarbeitet wurden. Nach einem solchen „Error“ oder „Discard“ wiederholt das Netzwerk den Versand der fehlerhaften Pakete zwar automatisch, dabei ist dann aber eventuell erneut ein Zehntel unbrauchbar. So müssen manche Pakete vier-, fünf oder sechsmal gesendet werden, bis ein Datenpaket vollständig am Ziel vorliegt. Ein klassischer Netzwerk-Dauerbrenner, bei dem Admins oft händisch die Nadel im Heuhaufen suchen. Mit Netzwerkmonitoring-Tools ist der Grund für eine solche Verzögerung dagegen mit einigen Klicks gefunden.

DIE PERFORMANCE ANALYSIEREN
Und noch ein Beispiel: Nutzer eines mittelständischen Unternehmens aus Oberbayern klagten regelmäßig morgens bis neun Uhr über eine allgemein schlechte Performance beim Zugriff auf die Anwendungen aus der Zentrale. Der Administrator tippte auf Video-Streaming als Ursache und begrenzte diese mittels der Firewall auf einen geringen Anteil der Bandbreite. Dies änderte am Problem nichts. Der Testbetrieb eines Netzwerkmonitoring-Tools deckte dagegen sofort auf: Bei Dienstbeginn war das nächtliche Backup noch nicht komplett zur Zentrale übertragen und belegte einen großen Teil der Bandbreite. Durch eine neue Konfiguration ließ sich das Problem lösen und den Clients stand morgens wieder die volle Bandbreite des Netzwerks zur Verfügung.

Fazit: Man kann kein Problem lösen, das man noch nicht einmal gefunden hat. Wer also nicht nur Bäume sehen will, sondern den ganzen Wald, braucht übergreifende Tools, auch für das Client Management.  Netzwerkmonitoring und besonders Application Performance Monitoring isolieren Probleme. Wenn sich dabei zeigt, dass wirklich der einzelne Client Probleme hat, hilft anschließend die direkte Kommunikation mit dem User, die Remote Support Session oder ein Client Management Tool. Wer aber beim Support Zeit sparen will, schaut erst einmal, wo das Problem wirklich liegt. Denn was sich am Client bemerkbar macht, ist oft nur ein Symptom für ein Problem, das im Netzwerk besteht.

* René Delbe ist International Solution Sales Engineer bei Ipswitch.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*