Wenige Themen beschäftigen IT-Verantwortliche seit einiger Zeit so akut wie eine mögliche Migration von VMware zu Kubernetes. Kubermatic nennt im folgenden Beitrag Tools und sich weiterentwickelnden Praktiken, die die Anforderungen von Anwendungen auf ihrer neuen Plattform nicht nur erfüllen, sondern sogar übertreffen. Auch ohne Modernisierung der Anwendungslaufzeit bietet die Umstellung auf eine Cloud-native Plattform erhebliche Vorteile. [...]
Der Wechsel von einer etablierten Virtualisierungsplattform wie VMware zu einer Open-Source-Lösung kann für manche Beteiligte ein Problem darstellen. Eines ist klarzustellen: Die zugrundeliegende Technologie, KVM (Kernel-based Virtual Machine), ist eine ausgereifte und bewährte Technologie, die die virtualisierten Dienste aller großen Cloud-Anbieter unterstützt. KubeVirt bietet hierbei eine Benutzeroberfläche, die mit Kubernetes interagiert und diese bewährte Virtualisierungsfunktion in eine Cloud-native Umgebung bringt.
Für diejenigen, die an GUI-Umgebungen gewöhnt sind, bedeutet der Übergang nicht, dass sie auf vertraute Schnittstellen verzichten müssen. Zwar steht eine umfangreiche und programmierbare API für die Erstellung von Integrationen und Automatisierungen zur Verfügung, aber es gibt weiterhin die Möglichkeit, eine GUI zu verwenden, die von Lösungen wie Kubermatic Virt bereitgestellt wird.
Ein bedeutender Trend in großen Unternehmen ist jedoch die Abkehr von manuellen „Click-Ops“ hin zu einer automatisierten, API-gesteuerten Infrastruktur. Der Fokus verlagert sich von einer attraktiven GUI hin zu Programmierbarkeit und Integration mit Tools wie Ansible, wobei betont wird: „Je einfacher die Automatisierung, desto besser.“ Kubernetes unterstützt diesen Wandel durch seine starke operative Grundlage, seine robuste API und seine abstrakten Schichten.
Speicherabstraktion und Datenmanagement
Ähnlich wie VMware VSAN, das eine softwaredefinierte Speicherschicht bereitstellte, erfüllt Portworx diese Rolle im Kubernetes-Ökosystem und bietet Funktionen für das Datenmanagement in Unternehmen. Zu diesen Funktionen gehören wichtige Funktionen wie standortübergreifende Replikation, Point-in-Time-Snapshots und On-Disk-Verschlüsselung, die alle für VM-Umgebungen unerlässlich sind.
Portworx by Pure Storage erfüllt die Anforderung, dass Daten zusammen mit dem Workload über ein einzelnes Rechenzentrum hinaus übertragen werden müssen. Zur Einhaltung von Vorschriften, wie insbesondere DORA, können Unternehmen mit Portworx verschiedene Storage Classes mit unterschiedlichen Datenschutzregeln und SLAs definieren, was die Verwaltung in großem Maßstab vereinfacht. Die API-gesteuerte Natur von Kubernetes und Portworx ermöglicht Entwicklern Self-Service-Funktionen, einschließlich Backup- und Recovery-Prozessen, mit integrierten Sicherheitsvorkehrungen, um die internen Erwartungen der Benutzer zu erfüllen. Beispielsweise kann GitOps vor der Einführung einer Änderung ein Backup in einer Produktionsumgebung auslösen.
Notfallwiederherstellung und betriebliche Ausfallsicherheit
Sobald eine virtuelle Maschine (VM) in Kubernetes verschoben wurde, wird sie zu einem vollwertigen Bestandteil und wie jede andere containerisierte Bereitstellung behandelt. Dies bedeutet, dass VMs vom flexiblen dynamischen Scheduler von Kubernetes profitieren, der über mehrere Rechenzentren hinweg einsetzbar ist. Dieser deklarative Ansatz, bei dem Unternehmen definieren, was das System tun soll, ist eine bedeutende Abkehr von der manuellen, imperativen Platzierung von Workloads in herkömmlichen VMware-Modellen.
Kubernetes wurde für hohe Ausfallsicherheit entwickelt und verwendet Quorum mit einer ungeraden Anzahl von Servern. Dies bietet einen großen Vorteil gegenüber der Aktiv-Passiv-Konfiguration von VMware und kann zu Hardware-Einsparungen führen. Die operative Reife von Kubernetes stellt sicher, dass Disaster Recovery und operative Ausfallsicherheit integriert sind, was für die Einhaltung strenger RTOs wie dem von Vorschriften wie DORA vorgeschriebenen Zwei-Stunden-Fenster von entscheidender Bedeutung ist.
Moderne Netzwerke und Sicherheit
Kubermatic Virt bietet ein „Virtual Private Cloud”-Paradigma für Netzwerke. Das Container Network Interface (CNI) ermöglicht es Diensten innerhalb des Cloud-nativen Namespace direkt mit virtuellen Maschinen zu interagieren. Auf diese Weise können Benutzer Anwendungen als ein einziges Manifest definieren und bereitstellen, wodurch sie hochgradig portabel sind und kurzlebige Umgebungen ermöglichen. Dies kann man sich so vorstellen, wie wenn Entwickler sicher auf digitalen Klonen der Produktion testen können, die in einem separaten Cluster mit denselben Kontrollen wie die Produktion selbst versteckt sind.
Kubernetes öffnet auch die Tür für die Verwendung ausgereifter Service-Meshes wie Linkerd oder Istio. Diese bieten eine Überlagerung der Logik für die Vernetzung und erweitern Funktionen wie die Verschlüsselung von Pod zu Pod oder von Pod zu VM. Sie bieten auch zentralisierte Nachverfolgung, Metriken und Protokollierung und konsolidieren betriebliche Erkenntnisse in einer einzigen Quelle.
Migrationsstrategien
Der beste Ansatz für die Migration von VMs hängt von deren aktuellen Reifegrad ab. Für ältere VMs mit minimalem Konfigurationsmanagement ist ein „Lift and Shift” des Basis-VM-Images eine Option, wobei Tools wie Forklift und Packer zum Einsatz kommen. Nicht sinnvoll ist es, darauf zu verzichten, zu prüfen, ob die Prozesse innerhalb der VM effizienter containerisiert werden könnten.
Für Unternehmen, die Konfigurationsmanagement (Ansible, Salt, Chef, Puppet) einsetzen, ist die Migration unkompliziert: Sie erstellen den neuen Host und wenden ihre vorhandenen Skripte an. Sobald ein System in einer Kubernetes-VPC läuft, die sowohl Container als auch VMs unterstützt, wird das Aufteilen von Komponenten einer Workload viel einfacher.
Vorteile für Workloads und Betreiber gleichermaßen
Die Verlagerung von VMs in Kubernetes ist eine sichere Landezone für Ingenieure, die mit VMware vertraut sind, da sie ihr vorhandenes Wissen über VMs, KVM und Linux nutzen und gleichzeitig neue Kubernetes-Kenntnisse erwerben können. Dieser Übergang ist eine großartige Gelegenheit, technische Altlasten anzugehen, indem sich Unternehmen im Voraus Gedanken über Dinge wie Failover und Skalierung machen können.
Für Speicheradministratoren ist dies eine Chance, ihr Fachwissen über containerisierte Workloads zu integrieren und ihr Wissen über Datenschutz und Hochverfügbarkeit in eine modernisierte Umgebung einzubringen. Der Wechsel von einer „geschlossenen” Plattform zu einer Open-Source-Plattform ist ein bedeutender Anreiz, insbesondere, wenn er durch eine bewährte Kombination von Tools begleitet wird, wie sie Unternehmen wie Kubermatic anbieten.
* Sebastian Scheele ist CEO von Kubermatic. Kubermatic mit Sitz in Hamburg bietet eine Plattform zur zentralen Verwaltung von Kubernetes-Clustern.

Be the first to comment