Ethernet-Innovation kämpft mit Leistung und Geschwindigkeit

Um Ethernet-Geschwindigkeiten von einem Terabit pro Sekunde und darüber hinaus zu erreichen, müssen technische Hindernisse bei Optik, Strom und Netzwerkarchitektur überwunden werden. [...]

Eine übergreifende Herausforderung bei der Entwicklung von Systemen jenseits von 400 Gbps ist der Stromverbrauch (c) pixabay.com

Während der Übergang zu 400G-Ethernet bisher hauptsächlich ein Ereignis für Hyperscaler und Telco-Netzwerke war, ist das Ziel für diese Anwender sowie für Kunden in Rechenzentren letztendlich mindestens 800Gbps und möglicherweise 1,6Tbps.

Und während 800 Gbps ein solides Ziel für Ethernet-Netzwerk-Visionäre zu sein scheint, scheinen die Herausforderungen – wie z. B. die Optik, der Stromverbrauch und die Architektur, die für den nächsten Geschwindigkeitssprung erforderlich sind – gewaltig zu sein.

Der Bedarf an höherer Geschwindigkeit in Rechenzentren und Cloud-Diensten wird durch eine Vielzahl von Faktoren angetrieben, darunter das anhaltende Wachstum von Hyperscale-Netzwerken von Akteuren wie Google, Amazon und Facebook, aber auch die stärker verteilten Cloud-, Künstliche-Intelligenz-, Video- und Mobile-Applikations-Workloads, die aktuelle und zukünftige Netzwerke unterstützen werden.

Ein weiterer Faktor ist, dass der globale IP-Verkehr laut IEEE 802.3 Industry Connections ethernet Bandwidth Assessment vom April 2020 bis 2022 auf 396 Exabyte pro Monat ansteigen soll, gegenüber 177EB im Jahr 2017. Die zugrundeliegenden Faktoren, wie die steigende Anzahl von Nutzern, die zunehmenden Zugriffsraten und -methoden sowie die zunehmenden Dienste, deuten alle auf ein anhaltendes Wachstum der Bandbreitennachfrage hin, so der Bericht.

Und es gab erhebliche Anstrengungen der Industrie, um schnellere Ethernet-Technologien voranzubringen. So haben beispielsweise das Institute of Electrical and Electronics Engineers (IEEE) und die IEEE Standards Association Ende 2020 die IEEE 802.3 Beyond 400 Gbps ethernet Study Group gegründet.

„Der Weg zu Beyond 400G Ethernet existiert, aber es gibt eine Vielzahl von Optionen und physikalischen Herausforderungen, die berücksichtigt werden müssen, um den nächsten Sprung in der Geschwindigkeitsrate für Ethernet zu machen“, sagte John D’Ambrosia, Distinguished Engineer, Futurewei Technologies, in einer Erklärung zur Gründung der Gruppe.

Ebenfalls Ende letzten Jahres hat das Optical Internetworking Forum (OIF) neue Projekte rund um Ethernet mit höherer Geschwindigkeit ins Leben gerufen, darunter das 800G Coherent Projekt. Dieses Projekt zielt darauf ab, interoperable Spezifikationen für kohärente 800G-Leitungen zu definieren – die im Wesentlichen festlegen, wie Switches mit höherer Geschwindigkeit über große Entfernungen kommunizieren – für Campus- und Data Center Interconnect-Anwendungen, so Tad Hofmeister, technischer Leiter, Optical Networking Technologies bei Google und Vizepräsident des OIF.

In dieser Woche waren D’Ambrosia und Hofmeister Teil einer Gruppe von Experten von Branchengrößen wie Cisco, Juniper, Google, Facebook und Microsoft, die zum Technology Exploration Forum (TEF) der Ethernet Alliance zusammenkamen, um sich mit Fragen und Anforderungen rund um die Festlegung von Ethernet-Raten der nächsten Generation zu beschäftigen.

Eine übergreifende Herausforderung bei der Entwicklung von Systemen jenseits von 400 Gbps ist der Stromverbrauch, der für den Betrieb dieser Systeme erforderlich ist.

„Der Stromverbrauch steigt mit einer unhaltbaren Geschwindigkeit. Energie ist das Problem, das es zu lösen gilt, denn sie begrenzt, was wir bauen und einsetzen können und was unser Planet aushalten kann“, erklärte Rakesh Chopra, ein Cisco Fellow, auf dem TEF. „Die Leistung pro Bit hat sich ständig verbessert – wir können die Bandbreite um das 80-fache erhöhen, aber die dafür benötigte Leistung steigt um das 22-fache. Jedes Watt, das wir im Netzwerk verbrauchen, ist eines weniger, das wir in Servern einsetzen können. Die Frage ist nicht, wie klein man die Geräte machen kann, sondern wie effizient man sein kann.“

Strom ist eine der größten Einschränkungen für Geschwindigkeiten jenseits von 400G, so Sameh Boujelbene, Senior Director bei der Dell’Oro Group. „Der Stromverbrauch wirkt sich bereits darauf aus, wie Hyperscaler höhere Geschwindigkeiten ausrollen, weil sie darauf warten müssen, dass verschiedene Technologien innerhalb ihres bestehenden Strombudgets effizient arbeiten, und dieses Problem wird mit höheren Geschwindigkeiten nur noch größer.“

Die große Frage ist, ob wir bei der Bandbreite oder beim Stromverbrauch zuerst an die Grenzen stoßen, so Brad Booth, leitender Hardware-Ingenieur bei der Azure Hardware Systems Group von Microsoft.  „Wenn wir weiterhin die gleichen Technologien wie heute verwenden, würden wir im Leistungsbereich abstumpfen. Da wir mehr und mehr Leistung benötigen, haben wir eine Leistungsbegrenzung. Wir müssen uns darauf verlassen, was gebaut wird und was durch die von uns unterstützten Infrastrukturen verfügbar ist.“

Viele Industrie- und Forschungsorganisationen wie DARPA und andere untersuchen, wie man eine größere Bandbreitendichte mit verbesserter Leistung erreichen kann, so Booth.

Und das wird kreative Antworten erfordern. „Zukünftige Rechenzentrumsnetzwerke erfordern möglicherweise eine Kombination aus photonischen Innovationen und optimierten Netzwerkarchitekturen“, sagte Boujelbene.

Eine dieser potenziellen Innovationen namens Co-Packaged Optics (CPO) wird derzeit von Broadcom, Cisco, Intel und anderen entwickelt, ist aber noch ein junges Feld. CPO verbindet derzeit getrennte Optiken und Switch-Silizium in einem Gehäuse mit dem Ziel, den Stromverbrauch deutlich zu reduzieren.

„CPO stellt den nächsten großen Schritt in der Stromreduzierung dar und bietet Energie- und Dichteeinsparungen, um die Skalierung von Systemen der nächsten Generation zu unterstützen“, so Rob Stone, Technical Sourcing Manager bei Facebook. Stone ist auch Vorsitzender der technischen Arbeitsgruppe des Ethernet Technology Consortium, das die Fertigstellung einer Spezifikation für 800GbE angekündigt hat. „Was wir brauchen, ist ein standardunterstütztes CPO-Ökosystem für eine breite Akzeptanz.“

Facebook und Microsoft entwickeln gemeinsam eine CPO-Spezifikation, „um die Herausforderung des wachsenden Datenverkehrs in Rechenzentren zu bewältigen, indem der Stromverbrauch der elektrischen Switch-Optik-Schnittstelle reduziert wird“, so die Unternehmen auf ihrer CPO-Website. „Eine gemeinsame, öffentlich verfügbare Systemspezifikation ist erforderlich, um Anbieter von optischen und Switches anzuleiten, schnell gemeinsame Lösungen zu entwickeln und die Schaffung eines vielfältigen Ökosystems von Anbietern zu ermöglichen.“

Die OIF arbeitet auch an einem Co-Packaging Framework, einer Spezifikation, die Anwendungsbereiche und relevante technologische Überlegungen für das Co-Packaging von Kommunikationsschnittstellen mit einem oder mehreren ASICs enthalten wird. Ein primäres Ziel der Spezifikation ist es, neue Möglichkeiten für Interoperabilitätsstandards für mögliche zukünftige Arbeiten bei der OIF oder anderen Standardisierungsorganisationen zu identifizieren, so Hofmeister.

CPO hat aber noch einen langen Weg vor sich, sagen Experten. „Die Architektur, das Design, die Implementierung und der Betrieb von Systemen mit CPO ist eine unglaublich schwierige Aufgabe, und deshalb ist es für die Branche entscheidend, dass wir damit beginnen, bevor es zu spät ist“, schrieb Chopra von Cisco kürzlich in einem Blog über CPO. „Heute sind in Service-Provider- und Web-Scale-Netzwerken die meisten Links außerhalb des Racks optisch, während die Verkabelung innerhalb des Racks aus Kupfer besteht. Wenn die Geschwindigkeiten steigen, müssen die längsten Kupferverbindungen auf optische Verbindungen umgestellt werden. Letztendlich werden alle Links, die ein Silizium-Gehäuse verlassen, eher optisch als elektrisch sein.“

„Während es immer schwieriger wird, schneller zu werden, ist es eine offene Frage, ob wir Systeme bauen können, die die nächste Rate und höhere Dichten unterstützen, so wie wir es gewohnt sind“, sagte David Ofelt, ein Ingenieur bei Juniper Networks. „Selbst wenn wir das können, ist nicht klar, ob das Ergebnis für den Endanwender akzeptabel sein wird.“

Es wird noch viele Jahre dauern, bis die Technologie, die die schnelleren Ethernet-Raten unterstützt, in großen Stückzahlen mit geeigneter Verpackung und Systemunterstützung verfügbar sein wird, so Ofelt. „Es geht nicht darum, dass Standards langsam sind, sondern darum, dass das Ökosystem im großen Maßstab aufgebaut wird“, sagte er.

Ein Teil der Herausforderung bei der massenhaften Umstellung auf höhere Geschwindigkeiten könnte darin bestehen, dass es stark gestaffelte Akzeptanzraten gibt.

Zum Beispiel wird die Mehrheit der Unternehmenskunden in den nächsten zwei bis fünf Jahren von 10G auf 25G umsteigen, und 50G bis 100G wird für viele von ihnen die nächste Geschwindigkeit sein. Die Erwartungen an Wireless am Netzwerkrand könnten sich ändern, so Vlad Kozlov, Gründer und CEO des Forschungsunternehmens LightCounting. „Unternehmen, die stark auf digitale Dienste angewiesen sind oder diese anbieten, werden in den nächsten zwei bis fünf Jahren von 100G auf 400G wechseln. 800G oder 1,6T werden die nächsten Geschwindigkeiten für sie sein. Allerdings könnten bandbreitenhungrige KI-Dienste diese Situation in Zukunft verändern: die Mehrheit der Unternehmen wird schnellere Konnektivität benötigen, um Videos zu übertragen, die ihren Betrieb überwachen.“

Was letztlich wirklich benötigt wird, ist eine flexible zugrundeliegende Architektur, um den zukünftigen Bandbreitenbedarf jenseits von 400 Gbps zu unterstützen, so D’Ambrosia auf dem TEF. „Es gibt viel zu tun, und wir haben gerade erst angefangen.“

*Michael Cooney ist Senior Editor bei Network World und schreibt seit mehr als 25 Jahren über die IT-Welt.


Mehr Artikel

News

Public Key Infrastructure: Best Practices für einen erfolgreichen Zertifikats-Widerruf

Um die Sicherheit ihrer Public Key Infrastructure (PKI) aufrecht zu erhalten, müssen PKI-Teams, sobald bei einer Zertifizierungsstelle eine Sicherheitslücke entdeckt worden ist, sämtliche betroffenen Zertifikate widerrufen. Ein wichtiger Vorgang, der zwar nicht regelmäßig, aber doch so häufig auftritt, dass es sich lohnt, PKI-Teams einige Best Practices für einen effektiven und effizienten Zertifikatswiderruf an die Hand zu geben. […]

News

UBIT Security-Talk: Cyberkriminalität wächst unaufhaltsam

Jedes Unternehmen, das IT-Systeme nutzt, ist potenziell gefährdet Opfer von Cyberkriminalität zu werden, denn die Bedrohung und die Anzahl der Hackerangriffe in Österreich nimmt stetig zu. Die Experts Group IT-Security der Wirtschaftskammer Salzburg lädt am 11. November 2024 zum „UBIT Security-Talk Cyber Defense“ ein, um Unternehmen in Salzburg zu unterstützen, sich besser gegen diese Bedrohungen zu wappnen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*