Wofür Sie Container brauchen

Docker? Container? Wenn diese Begriffe in Ihrem Kopf nur Fragezeichen hinterlassen, sollten Sie unbedingt weiterlesen. [...]

Docker eroberte die IT-Welt im Jahr 2013 im Sturm – und ist immer noch in aller Munde. Die Container-Technologie verspricht, die Art und Weise zu revolutionieren, wie IT-Abteilungen in ihren Anwendungslandschaften arbeiten – ungefähr so, wie es die Virtualisierung ein paar Jahre zuvor getan hat. Wir haben die 13 wichtigsten Fragen und Antworten in Zusammenhang mit Docker und Containern für Sie zusammengetragen.
WAS SIND CONTAINER UND WOFÜR BRAUCHT MAN SIE?
Container schaffen eine stabile Ablaufumgebung für Anwendungen, zum Beispiel wenn die Software „umziehen“ muss – vom Laptop eines Entwicklers in eine Test-Umgebung, ein Data Center oder die Public Cloud.
Hierbei können Probleme auftreten, wenn die Software-Umgebungen nicht identisch sind, wie Docker-Gründer Solomon Hykes weiß: „Sie testen mit Phyton 2.7, in der Produktion läuft dann aber alles auf Phyton 3 und plötzlich passieren seltsame Dinge. Oder Sie verlassen sich auf die Funktionsweise einer bestimmten SSL-Version, aber dann wird eine andere installiert. Auch wenn Sie Ihr Testing auf Debian durchführen und die Produktion auf Red Hat läuft, passieren jede Menge Merkwürdigkeiten.“
Wobei es aber nicht so sei, dass nur unterschiedliche Software für Probleme sorgen kann: „Es können auch Unterschiede bei Netzwerk-Topologie, Security Policy oder Storagebestehen – aber die Software muss darauf laufen.“
Video: Container Explainer
WIE LÖSEN CONTAINER DIESES PROBLEM?
Einfach ausgedrückt besteht ein Container aus einer kompletten Laufzeit-Umgebung: der Applikation (mit allen Anhängseln), Programmbibliotheken, Konfigurationsdateien und allen sonst nötigen Tools. Durch die Containerisierung von Applikations-Plattformen werden Unterschiede hinsichtlich Betriebssystem-Distributionen und der darunterliegenden Infrastruktur abstrahiert.
WAS IST DER UNTERSCHIED ZWISCHEN CONTAINERN UND VIRTUALISIERUNG?
Bei der Virtualisierung ist das Paket das herumgeschickt wird, eine virtuelle Maschine und beinhaltet sowohl ein komplettes Betriebssystem als auch die Applikation. Ein physischer Server auf dem drei virtuelle Maschinen laufen, hätte einen Hypervisor und drei getrennt darauf laufende Systeme.
Im Gegensatz dazu läuft auf einem Server mit drei containerisierten Applikationen nur ein Betriebssystem. Die Container teilen sich den Betriebssystem-Kernel untereinander. Diese Bereiche beschränken sich auf ‚read only‘ – darüber hinaus besitzt jeder Container auch einen eigenen Bereich für ‚writing‘-Tasks. Dank dieser Konstellation benötigen Container wesentlich weniger Ressourcen als virtuelle Maschinen.
WELCHE ANDEREN VORTEILE BIETEN CONTAINER?
Ein Container ist in der Regel nicht größer als 100 Megabyte, während eine virtuelle Maschine mit ihrem eigenen Betriebssystem auch mehrere Gigabyte in Anspruch nehmen kann. Deswegen kann ein einzelner Server auch wesentlich mehr Container als virtuelle Maschinen hosten.
Ein weiterer Vorteil: Containerisierte Applikationen können fast aus dem Stand gestartet werden, während virtuelle Maschinen einige Minuten für den Boot-Vorgang opfern müssen, bevor die Applikationen gestartet werden können. Container können also ‚just in time‘ genutzt werden, wenn sie gebraucht werden und verschwinden anschließend wieder still. Das spart Ressourcen.
Video: CIO Network: Using Containers to Improve Efficiency Ein dritter Vorteil der Containerisierung ist, dass diese modulare Systeme erlaubt. Statt eine komplette, komplexe Applikation in einem Container zu betreiben, lässt sich diese in Module aufteilen (zum Beispiel Database, Front End, etc.). Das ist der sogenannte Microservices-Ansatz. Applikationen, die nach diesem Schema aufgebaut sind, sind leichter zu managen, weil die einzelnen Module überschaubar bleiben und Änderungen auf Modulebene jederzeit möglich sind – ohne dazu die ganze Applikation neu schreiben zu müssen.
Video: What are Microservices? WO LIEGT DER UNTERSCHIED ZWISCHEN DOCKER UND CONTAINERN?
Docker ist inzwischen zu einem Synonym für die Container-Technologie geworden. Das liegt daran, dass die Open-Source-Software am erfolgreichsten darin war, die Technologie populär zu machen. Container selbst sind allerdings nicht neu – sie kommen bei Linux (in Form von LXC) schon seit mehr als zehn Jahren zum Einsatz. Weitere Lösungen sind zum Beispiel FreeBSD jails, AIX Workload Partitions oder Solaris Containers.
GIBT ES EIN STANDARD-CONTAINER-FORMAT?
Im Jahr 2015 produzierte ein Unternehmen namens CoreOS seine eigene App Container Image (ACI)-Spezifikation, die sich von der Docker-Variante unterschied. Zur damaligen Zeit bestand das Risiko, dass es innerhalb der gerade im Aufschwung befindlichen „Container-Bewegung“ zu einer Fragmentierung mit rivalisierenden Linux-Container-Formaten kommt.
Diese Gefahr wurde noch im selben Jahr durch die Gründung der Open Container Intitiative(OCI, vormals Open Container Project) gebannt. Unter Federführung der Linux Foundation soll die OCI Industrie-Standards für Container-Formate definieren. Die Basis für die OCI-Standards bildet wiederum die Docker-Technologie: das Unternehmen stellte fünf Prozent seiner Codebasis zur Verfügung, um das Projekt zum Fliegen zu bringen.
Zu den Sponsoren der Open Container Intitiative gehören neben Docker unter anderem auch AWS, Google, IBM, HP, Microsoft, VMware, Red Hat, Oracle, Twitter und CoreOS.
Video: The Containers Ecosystem, the OpenStack Magnum Project, the Open Container Initiative, and You!
WAS HAT ES MIT DER OPEN CONTAINER INITIATIVE AUF SICH?
Die Mission der OCI ist es, die Container-Technologie auf ein standardisiertes Fundament zu stellen, das Vorteile für alle Beteiligten mit sich bringt. Statt Ressourcen auf die Entwicklung konkurrierender Container-Formate zu verwenden, können sich die beteiligten Unternehmen darauf fokussieren, zusätzliche Software zu entwickeln, die nötig ist, um die Nutzung von standardisierten Containern im Unternehmens- und Cloud-Umfeld zu ermöglichen. Dabei handelt es sich zum Beispiel um Container-Management- oder -Security-Systeme.

Mehr Artikel

News

Jahrelanges Katz-und-Maus-Spiel zwischen Hackern und Verteidigern

Sophos hat den umfangreichen Forschungsbericht „Pacific Rim“ veröffentlicht, der detailliert ein jahrelanges Katz-und-Maus-Spiel aus Angriffs- und Verteidigungsoperationen mit mehreren staatlich unterstützten Cybercrime-Gruppierungen aus China beschreibt. Im Lauf der Auseinandersetzung entdeckte Sophos ein riesiges, gegnerisches Cybercrime-Ökosystem. […]

News

Salesforce kündigt autonome KI-Agenten an

Agentforce soll es Unternehmen ermöglichen, autonome KI-Agenten für zahlreiche Unternehmensfunktionen zu entwickeln und einzusetzen. So bearbeitet Agentforce beispielsweise selbstständig Kundenanliegen, qualifiziert Vertriebsleads und optimiert Marketingkampagnen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*