Software Defined Networks: Das Netz wird programmierbar

Weg von proprietärer Hardware, hin zu einer frei konfigurierbaren Infrastruktur, die sich einfach verwalten lässt: Das SDN-Konzept klingt vielversprechend, doch für die Anwendung in Unternehmensnetzen taugt es noch nicht. [...]


Unterschiedliche Ansätze

Die Kommunikation zwischen Controller und Infrastrukturebene (Data/Forwarding Plane) erfolgt über ein spezielles Protokoll. Hier kommt derzeit vor allem OpenFlow zum Einsatz, das an der Stanford University in Kalifornien entwickelt wurde. Für die Anbindung der Anwendungen sind standardisierte Application Programming Interfaces (APIs) zuständig. Derzeit favorisieren etliche Netzhersteller OpenFlow, darunter Hewlett-Packard, NEC und IBM. Allerdings gibt es auch andere Ansätze, beispielsweise Path Computation Elements (PCE), ein speziell für SDN in Weitverkehrsnetzen entwickeltes Konzept.
Die Switches und Router in einer SDN-Infrastruktur müssen das Protokoll „verstehen“, das der SDN-Controller verwendet, also etwa OpenFlow. Das bedeutet im Extremfall den Austausch von älteren Systemen gegen neue, die über entsprechende Schnittstellen verfügen. Die meisten Anbieter von Netzausrüstung für Enterprise Networks und Telekommunikationsnetze statten derzeit ihre Systeme mit entsprechenden Interfaces aus.
Das leistet SDN
Die Verfechter des Konzepts führen unter anderem folgende Vorteile von SDN an:

  • Beim Controller handelt es sich um kein herstellerspezifisches, geschlossenes System. Netzadministratoren können darauf zugreifen und den Controller programmieren.
  • Unterschiedliche Netzsysteme lassen sich von einer zentralen Stelle aus steuern, von physischen Switches und Routern bis hin zu virtualisierten Switches (vSwitches), WLAN-Access-Points und WAN-Optimierungssystemen.
  • Anwendungen und neue Netzdienste können innerhalb von Stunden bereitgestellt werden. Derzeit erfordert dies oft mehrere Tage oder gar Monate. Bei SDN lassen sich über Einträge in Flow Tables auch Dienste und Eigenschaften konfigurieren, bei denen das in herkömmlichen Netzen nicht mittels Scripts möglich ist, etwa Quality-of-Service-Merkmale und VLAN-Einstellungen.
  • Servicedefinitionen müssen nicht mehr auf physikalische Netz-Ports „gemappt“ werden. Das verringert den Konfigurationsaufwand.
  • Der Controller vermittelt dem Administrator eine „ganzheitliche“ Sicht auf die Anwendungen, Netzelemente und Datenströme (Flows).
  • Laut Oracle verringert SDN die Komplexität einer Netzwerkinfrastruktur um bis zu 70 Prozent, weil weniger Switch-Ports und Kabel erforderlich sind. Bei LANs und Storage Area Networks seien es etwa 50 Prozent.

Die University of Stanford (Kalifornien) führt an, dass Software Defined Networks vor allem die Handhabung von Virtual Machines (VM) erleichtern. Demnach lassen sich in einer SDN-Infrastruktur VMs auf einfachere Weise im Netz verschieben. Der Grund ist, dass sich mit einem SDN-Controller sowohl physische wie auch virtualisierte Data Planes steuern lassen.
Geringere Ausgaben für das Netz
Die genannten Faktoren schlagen sich nach Berechnungen der Beratungsgesellschaft International Strategy and Investment Group (ISI) in geringeren Kosten nieder. Durch die effizientere Auslastung der Systeme in einem typischen Server-Rack sollen sich mit Hilfe von SDN etwa 20 Prozent der Server, Speicher- und Netzsysteme sowie der zugehörigen Verkabelung und Netzbandbreite einsparen lassen.
In einem Rechenzentrum mit zehn Racks, die jeweils mit Ausrüstung im Wert von einer Million Dollar bestückt seien, könnten dadurch zwei Racks entfallen. Das entspricht einem Gegenwert von zwei Millionen Dollar. Zudem, so ISI, reduziert SDN die Betriebskosten. Der Grund: Im Vergleich zu einer herkömmlichen Netzinfrastruktur lassen sich mit SDN mehr Netzwerk-Management-Prozesse automatisieren. Das entlaste die IT-Abteilung, vor allem bei der Migration zu einer Private-Cloud-Umgebung oder einer Hybrid Cloud, in der sowohl hausinterne IT-Systeme und -Services als auch Public-Cloud-Angebote genutzt werden.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*