Mirantis OpenStack für Kubernetes mit automatisierter Workload-Verteilung

Mirantis bietet mit der neuesten Version von Mirantis OpenStack für Kubernetes eine kostengünstige Open-Source-Alternative zu VMware. [...]

"MOSK ist eine praktikable und bewährte Option auf Open-Source-Basis. Besonders interessant ist dies für VMware-Anwender, die nach Alternativen suchen", sagt Shaun O'Meara, Chief Technology Officer bei Mirantis. "MOSK vereinfacht den Betrieb von OpenStack-basierten Cloud- und Virtualisierungslösungen." (c) Mirantis

Der Open-Source-Softwarespezialist Mirantis hat mit MOSK 24.2 die neueste Version von Mirantis OpenStack for Kubernetes veröffentlicht. Die neue Funktion Dynamic Resource Balancer automatisiert die Verteilung von Workloads. Dies trägt dazu bei, typische Probleme mit Hotspots und „Noisy-Neighbor-Effekten“ zu lösen, die zu einer ungleichmäßigen Cloud-Netzwerkleistung führen können.

Ausgeglichene Ressourcennutzung

MOSK verteilt Workloads nun automatisch innerhalb eines Clusters und trägt so zu einer ausgeglichenen Ressourcennutzung bei. Dies soll eine Überlastung des Hypervisors und eine Verschlechterung der Performance von Cloud-Workloads verhindern. Die neue Funktion namens Dynamic Resource Balancer wurde von Mirantis als Beitrag zu OpenStack Upstream entwickelt und ist mit dem Distributed Resource Scheduler (DRS) von VMware vergleichbar. Mirantis ist der erste Anbieter, der diese Funktion für OpenStack ohne komplexe Abhängigkeiten von anderen Diensten implementiert hat.

MOSK 24.2 basiert auf OpenStack 2024.1/Caracal und der neuesten Open Source Software-defined Storage Technologie Ceph Reef. Die neue Version unterstützt auch das beliebte Open Virtual Network (OVN) Software-defined Networking (SDN) für die Bereitstellung von Netzwerkdiensten für virtuelle Maschinen.

Alternative für VMware-Anwender

„MOSK ist eine praktikable und bewährte Option auf Open-Source-Basis. Besonders interessant ist dies für VMware-Anwender, die nach Alternativen suchen“, sagt Shaun O’Meara, Chief Technology Officer bei Mirantis. „MOSK vereinfacht den Betrieb von OpenStack-basierten Cloud- und Virtualisierungslösungen. Als einheitliche Lösung ist die Bereitstellung auf kostengünstiger, hyperkonvergenter und modularer Hardware möglich und es wird eine funktionsreiche und skalierbare On-Premises-Cloud geschaffen. MOSK ist als ideale Host-Umgebung für migrierte VMware VM-Workloads ausgelegt. Unternehmen können dadurch ein optimales Ressourcenmanagement erzielen und hohe Netzwerk-Performance auf einer offenen Infrastruktur mit praxisbewährter Zuverlässigkeit erreichen.“

MOSK ermöglicht eine On-Premises Cloud-Infrastruktur für Cloud-native und konventionelle Applikationen und gewährleistet Zuverlässigkeit und vollständige Kontrolle über die Anwendungsdaten. Die Lösung bietet ein übersichtliches und unkompliziertes Benutzererlebnis, beispielsweise durch automatisiertes Full-Stack-Management der zugrundeliegenden Infrastruktur – von der Hardwarebereitstellung bis zur Softwarekonfiguration – sowie durch Funktionen für zentralisierte Protokollierung, Monitoring und Alerts.

Verwaltung mehrerer Clouds

Das Basis-Setup von MOSK kann einfach erweitert werden, um mehrere Clouds über eine einzige Schnittstelle zu verwalten oder hybride Cloud-Konfigurationen mit öffentlichen Cloud-Ressourcen oder gehosteten Bare-Metal-Cloud-Ressourcen zu nutzen. In der einfachsten Konfiguration ist MOSK in einer Reihe von Paketen mit 24/7- oder Fully-Managed-Support, optionaler Integration, VMware-Anwendungsmigration und Applikations-Modernisierungsdiensten sowie Schulungen durch Mirantis erhältlich.

Eine ausführliche Demonstration der Möglichkeiten von MOSK 24.2 findet im Rahmen eines Webinars am 25.07.2024 statt. Weitere Informationen und die Anmeldung finden Sie hier. Mirantis stellt darüber hinaus einen TCO-Rechner zur Verfügung. Mit diesem lässt sich überschlägig kalkulieren, welche Einsparungen durch den Wechsel von einer anderen Infrastruktur zu Mirantis OpenStack möglich sind. Weitere Einzelheiten zu MOSK 24.2 finden sich hier.


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*