Wofür Sie Container brauchen

Docker? Container? Wenn diese Begriffe in Ihrem Kopf nur Fragezeichen hinterlassen, sollten Sie unbedingt weiterlesen. [...]

Docker eroberte die IT-Welt im Jahr 2013 im Sturm – und ist immer noch in aller Munde. Die Container-Technologie verspricht, die Art und Weise zu revolutionieren, wie IT-Abteilungen in ihren Anwendungslandschaften arbeiten – ungefähr so, wie es die Virtualisierung ein paar Jahre zuvor getan hat. Wir haben die 13 wichtigsten Fragen und Antworten in Zusammenhang mit Docker und Containern für Sie zusammengetragen.
WAS SIND CONTAINER UND WOFÜR BRAUCHT MAN SIE?
Container schaffen eine stabile Ablaufumgebung für Anwendungen, zum Beispiel wenn die Software „umziehen“ muss – vom Laptop eines Entwicklers in eine Test-Umgebung, ein Data Center oder die Public Cloud.
Hierbei können Probleme auftreten, wenn die Software-Umgebungen nicht identisch sind, wie Docker-Gründer Solomon Hykes weiß: „Sie testen mit Phyton 2.7, in der Produktion läuft dann aber alles auf Phyton 3 und plötzlich passieren seltsame Dinge. Oder Sie verlassen sich auf die Funktionsweise einer bestimmten SSL-Version, aber dann wird eine andere installiert. Auch wenn Sie Ihr Testing auf Debian durchführen und die Produktion auf Red Hat läuft, passieren jede Menge Merkwürdigkeiten.“
Wobei es aber nicht so sei, dass nur unterschiedliche Software für Probleme sorgen kann: „Es können auch Unterschiede bei Netzwerk-Topologie, Security Policy oder Storagebestehen – aber die Software muss darauf laufen.“
Video: Container Explainer
WIE LÖSEN CONTAINER DIESES PROBLEM?
Einfach ausgedrückt besteht ein Container aus einer kompletten Laufzeit-Umgebung: der Applikation (mit allen Anhängseln), Programmbibliotheken, Konfigurationsdateien und allen sonst nötigen Tools. Durch die Containerisierung von Applikations-Plattformen werden Unterschiede hinsichtlich Betriebssystem-Distributionen und der darunterliegenden Infrastruktur abstrahiert.
WAS IST DER UNTERSCHIED ZWISCHEN CONTAINERN UND VIRTUALISIERUNG?
Bei der Virtualisierung ist das Paket das herumgeschickt wird, eine virtuelle Maschine und beinhaltet sowohl ein komplettes Betriebssystem als auch die Applikation. Ein physischer Server auf dem drei virtuelle Maschinen laufen, hätte einen Hypervisor und drei getrennt darauf laufende Systeme.
Im Gegensatz dazu läuft auf einem Server mit drei containerisierten Applikationen nur ein Betriebssystem. Die Container teilen sich den Betriebssystem-Kernel untereinander. Diese Bereiche beschränken sich auf ‚read only‘ – darüber hinaus besitzt jeder Container auch einen eigenen Bereich für ‚writing‘-Tasks. Dank dieser Konstellation benötigen Container wesentlich weniger Ressourcen als virtuelle Maschinen.
WELCHE ANDEREN VORTEILE BIETEN CONTAINER?
Ein Container ist in der Regel nicht größer als 100 Megabyte, während eine virtuelle Maschine mit ihrem eigenen Betriebssystem auch mehrere Gigabyte in Anspruch nehmen kann. Deswegen kann ein einzelner Server auch wesentlich mehr Container als virtuelle Maschinen hosten.
Ein weiterer Vorteil: Containerisierte Applikationen können fast aus dem Stand gestartet werden, während virtuelle Maschinen einige Minuten für den Boot-Vorgang opfern müssen, bevor die Applikationen gestartet werden können. Container können also ‚just in time‘ genutzt werden, wenn sie gebraucht werden und verschwinden anschließend wieder still. Das spart Ressourcen.
Video: CIO Network: Using Containers to Improve Efficiency Ein dritter Vorteil der Containerisierung ist, dass diese modulare Systeme erlaubt. Statt eine komplette, komplexe Applikation in einem Container zu betreiben, lässt sich diese in Module aufteilen (zum Beispiel Database, Front End, etc.). Das ist der sogenannte Microservices-Ansatz. Applikationen, die nach diesem Schema aufgebaut sind, sind leichter zu managen, weil die einzelnen Module überschaubar bleiben und Änderungen auf Modulebene jederzeit möglich sind – ohne dazu die ganze Applikation neu schreiben zu müssen.
Video: What are Microservices? WO LIEGT DER UNTERSCHIED ZWISCHEN DOCKER UND CONTAINERN?
Docker ist inzwischen zu einem Synonym für die Container-Technologie geworden. Das liegt daran, dass die Open-Source-Software am erfolgreichsten darin war, die Technologie populär zu machen. Container selbst sind allerdings nicht neu – sie kommen bei Linux (in Form von LXC) schon seit mehr als zehn Jahren zum Einsatz. Weitere Lösungen sind zum Beispiel FreeBSD jails, AIX Workload Partitions oder Solaris Containers.
GIBT ES EIN STANDARD-CONTAINER-FORMAT?
Im Jahr 2015 produzierte ein Unternehmen namens CoreOS seine eigene App Container Image (ACI)-Spezifikation, die sich von der Docker-Variante unterschied. Zur damaligen Zeit bestand das Risiko, dass es innerhalb der gerade im Aufschwung befindlichen „Container-Bewegung“ zu einer Fragmentierung mit rivalisierenden Linux-Container-Formaten kommt.
Diese Gefahr wurde noch im selben Jahr durch die Gründung der Open Container Intitiative(OCI, vormals Open Container Project) gebannt. Unter Federführung der Linux Foundation soll die OCI Industrie-Standards für Container-Formate definieren. Die Basis für die OCI-Standards bildet wiederum die Docker-Technologie: das Unternehmen stellte fünf Prozent seiner Codebasis zur Verfügung, um das Projekt zum Fliegen zu bringen.
Zu den Sponsoren der Open Container Intitiative gehören neben Docker unter anderem auch AWS, Google, IBM, HP, Microsoft, VMware, Red Hat, Oracle, Twitter und CoreOS.
Video: The Containers Ecosystem, the OpenStack Magnum Project, the Open Container Initiative, and You!
WAS HAT ES MIT DER OPEN CONTAINER INITIATIVE AUF SICH?
Die Mission der OCI ist es, die Container-Technologie auf ein standardisiertes Fundament zu stellen, das Vorteile für alle Beteiligten mit sich bringt. Statt Ressourcen auf die Entwicklung konkurrierender Container-Formate zu verwenden, können sich die beteiligten Unternehmen darauf fokussieren, zusätzliche Software zu entwickeln, die nötig ist, um die Nutzung von standardisierten Containern im Unternehmens- und Cloud-Umfeld zu ermöglichen. Dabei handelt es sich zum Beispiel um Container-Management- oder -Security-Systeme.

Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*