Software Defined Networks: Das Netz wird programmierbar

Weg von proprietärer Hardware, hin zu einer frei konfigurierbaren Infrastruktur, die sich einfach verwalten lässt: Das SDN-Konzept klingt vielversprechend, doch für die Anwendung in Unternehmensnetzen taugt es noch nicht. [...]

SDN in der Praxis
Die praktischen Erfahrungen mit SDN beschränken sich bisher vor allem auf Netze von Forschungseinrichtungen und Hochschulen wie der Stanford University oder dem Kernforschungszentrum Cern in Genf. Allerdings haben auch Google und Microsoft einen Teil ihrer Rechenzentren in eine SDN-Infrastruktur eingebunden.
Andreas Müller, Country Manager von HP Networking in Deutschland, erwartet jedoch, dass sich SDN auch im kommerziellen Umfeld etabliert: „In Verbindung mit OpenStack werden sich Software Defined Networks auf Basis von OpenFlow auch im Cloud-Computing-Bereich und in großen Firmennetzen durchsetzen.“ Der Grund ist, dass solche komplexen Netze in immer stärkerem Maße ein weitgehend automatisiertes Management erfordern: „Das ist mit herkömmlichen Methoden nicht zu erreichen.“
SDN-Controller: Was zu verbessern ist
In einer Untersuchung zur Leistungsfähigkeit von Software Defined Networking kommt das Institut für Parallele und Verteilte Systeme (IPVS) der Universität Stuttgart zu dem Schluss, dass SDN ein tragfähiger Ansatz ist, um Middleware für künftige Generationen von Unternehmensnetzen und des Internets zu erstellen. Nach Auffassung der Autoren existieren jedoch einige Bereiche, in denen Nachbesserungen beziehungsweise weitergehende Untersuchungen erforderlich sind:
Skalierbarkeit: Vor allem in großen, dynamischen Netzen kann sich ein Controller als Flaschenhals erweisen. Ein Ausweg sind Cloud-basierte SDN-Controller, deren Leistung sich bei Bedarf erhöhen lässt, etwa indem ihnen mehr CPU-Cores zur Verfügung gestellt werden. Eine weitere Option ist der Einsatz von verteilten („distributed“) Controllern.
Größe der Flußtabellen (Flow Tables): Eine hohe Zahl von Einträgen in den Flow Tables eines Switchs (typischerweise bis zu 150.000) kann sich negativ auf die Netzbandbreite auswirken.
Koordination verteilter Controller: Die Control Plane in einer SDN-Infrastruktur lässt sich auf mehrere Controller verteilen, um etwa die Fehleranfälligkeit zu verringern oder einen Lastausgleich (Load Balancing) vorzunehmen. Dies setzt allerdings optimierte Abstimmungsprozesse zwischen den Systemen voraus. Denkbar sind eine hierarchische Struktur und ein Peer-to-Peer-Modell. Beide erfordern jedoch unterschiedliche Koordinationskonzepte.
Unterstützung von Quality-of-ServiceMechanismen: Echtzeitanwendungen wie Voice over IP oder Applikationen für die Steuerung des Netzes erfordern QoS. Es müssen somit entsprechende Verfahren für das Reservieren von Netzressourcen und das Forwarding verwendet werden. In diesem Fall hat SDN Vorteile in Bezug auf die Performance, weil das Forwarding auf dem Layer 3 (Netzwerkebene) erfolgt, nicht auf der Anwendungsebene (Layer 7).
Fazit
Für die Hersteller von Netzkomponenten bedeutet SDN, dass proprietäre Hardware wie etwa Switches an Bedeutung verliert. Dafür werden SDN-Controller und entsprechende Management-Tools wichtiger. Für SDN sprechen die hohe Flexibilität und die Möglichkeit, die Netzinfrastruktur besser als bislang auf die speziellen Anforderungen von Anwendungen abstimmen zu können – etwa in Bezug auf die erforderlichen Bandbreiten oder Quality-of-Service-Parameter. Diese Flexibilität wird vor allem in komplexen Netzen, etwa Private oder Hybrid Clouds, wichtiger.
Bis Software Defined Networking das Unternehmensnetz erreicht, dürften dennoch einige Jahre vergehen. Zum einen gibt es bislang noch zu wenige Produkte, die SDN-Protokolle wie OpenFlow unterstützen. Nach Angaben von VMware sind derzeit bestenfalls ein bis zwei Prozent der Netzwerk-Switches für OpenFlow ausgelegt. Zum anderen müssen Software Defined Networks noch den Beweis antreten, dass sie auch in komplexen Installationen „beherrschbar“ sind. Dennoch ist SDN ein Schritt in die richtige Richtung. Erfreulich ist, dass durch die Diskussion über SDN die etablierten Anbieter, die bislang auf geschlossene Welten setzen, aufgeschreckt wurden. Für den Anwender kann sich dies mittelfristig auszahlen.
* Bernd Reder ist Redakteur der deutschen Computerwoche.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*