Verwaltung von QoS auf VM-Ebene

Quality of Service (QoS) ist beileibe nichts Neues im Rechenzentrum. Als Information Lifecycle Management vor rund einem Jahrzehnt gehypet wurde, war QoS bereits ein wichtiger Faktor, allerdings erst für physische Server. Heute, nach der "virtuellen" Revolution kämpfen Admins wieder damit, QoS zu garantieren. Doch diesmal für ihre kritischen VMs. Dabei stehen sie meist auf verlorenem Posten, da ihre traditionellen Speicher mit veralteten Speicherkonzepten wie LUNs und Volumes arbeiten, die Speicherressourcen von VMs eben nicht auf VM-Ebene verwalten können. [...]

Alle VMs sind in der Übersicht des Dashboards gelistet und eine unkontrollierte, Bandbreite fressende VM ist sehr einfach zu finden. Es stellt sich also eher die Frage, was man mit ihr tun soll. Auf einem VM-zentrischen System setzt man einfach eine QoS-Grenze für solch eine „wilde“ VM, um sie unter Kontrolle zu bringen. Dabei werden die IOPS, die diese VM verbraucht, sogar in Echtzeit angezeigt. QoS zu konfigurieren geschieht einfach mit einem Rechte-Mausklick auf diese VM und der Einstellung von maximalen IOPS, die diese verbrauchen kann. Jedes Problem mit QoS von VMs kann so innerhalb von Minuten gelöst werden. Das Resultat ist für den Admin sofort in der Übersicht sichtbar – und in schnellerem Exchange für die Nutzer, die das Problem gemeldet hatten.

Grafik 1 – Vorher/nachher: Eine wilde VM verbrauchte zu viele IOPS und wird per Mausklick zu Räson gebracht

Ein anderes Beispiel: Viele Unternehmen haben einige Server und Applikationen, die als absolut wichtig gelten und deren VMs jederzeit höchste Performance garantiert bekommen sollten. Läuft eine solche VM langsam, muss der Fehler schnell gefunden und behoben werden. In unserem Beispiel reicht ein Klick auf die VM, um zu zeigen, dass eine Contention-Latenz besteht, dass sich die VM also quasi mit einer oder mehreren anderen VMs um IOPS streitet. Genauso einfach, wie man ein Maximum für wilde VMs setzen kann, kann man mit einem VM-zentrischen Speicher auch ein IOPS-Minimum garantieren. Das Prinzip bleibt das gleiche: Mit einem Rechte-Mausklick auf die VM kann man QoS einstellen und ein Minimum setzen. Damit ist der Streit um Ressourcen beendet, und die wichtige VM läuft wieder einwandfrei.

Grafik 2 – Vorher/nachher: Eine kritische VM kämpft um Ressourcen und wird per Mausklick mit mehr Minimum IOPS auf Trab gebracht.

QoS-Verwaltung auf alten Systemen, die auf LUNs und Volumes setzen, ist nicht sinnvoll wenn einem VMs und Applikationen wichtig sind. VM-zentrischer Speicher gibt dem Admin volle Kontrolle über die Performance einzelner VMs oder bestimmter Gruppen von „Service Tiers“ und spart Zeit und Geld.

Grafik 3 – Service Tiers: Die Gruppierung von VMs in unterschiedliche Tiers hilft bei der Verwaltung vieler VMs.

Speicher einzusetzen, der nicht VM-zentrisch ist und der nur teuren Flash-Speicher überprovisioniert, um einfach allen VMs höchste Performance zu garantieren, greift zu kurz. Im Zeitalter virtualisierter Rechenzentren ist Speicher gefragt, der Speicher-Performance auf VM-Ebene garantieren kann.

* Mark Young ist Director Systems Engineering EMEA bei Tintri.


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*