Läutet Fog Computing das Ende der Cloud ein?

Die Cloud hat ein Bandbreitenproblem. Konzepte wie Fog Computing und Edge Computing bringen die Intelligenz wieder zurück ins Netz. [...]

Die Idee ist nicht neu. Schon 2014 präsentierte der Netzwerkriese Cisco seine Vision vom Fog Computing. „Wir verschwenden Zeit und Bandbreite, wenn wir alle Daten von IoT-Devices erst in die Cloud und dann die Antworten wieder zurück ins Netz spielen“, erklärte Guido Jouret, Chef von Ciscos Internet-of-Things-Sparte. Viel sinnvoller wäre es doch, zumindest einige Verarbeitungsaufgaben direkt vor Ort von intelligenten Routern erledigen zu lassen.
Kay Wintrich , Technical Director von Cisco Deutschland, erklärt das Konzept so: „Fog Computing bringt Analyse-, Verarbeitungs- und Speicherfunktionen an den Rand des Netzwerks.“ Im „Internet of Everything“, sprich einer komplett vernetzten Welt, sei das die einzige Möglichkeit, mit der großen Menge an anfallenden Daten umgehen zu können. IBM argumentiert ganz ähnlich, verwendet dafür aber den Begriff Edge Computing. Auch Microsoft-Chef Satya Nadella sprach auf der Entwicklerkonferenz Build 2017 von Edge Computing und propagierte eine „intelligente Cloud“.
Die Relevanz des Themas steigt mit der rasant wachsenden Zahl von Geräten im Internet of Things (IoT). Bis 2020 könnten laut Schätzungen weltweit 50 Milliarden „Devices“ im Netz verbunden sein. Dabei fallen enorme Datenmengen an. Eine einzige Turbine eines modernen Verkehrsflugzeugs generiere innerhalb von 30 Minuten rund 10 Terabyte Daten, argumentiert man bei Cisco.
Dass die ohnehin stark beanspruchten Verbindungen in die Cloud-Rechenzentren damit irgendwann in die Knie gehen, ist abzusehen. Cloud-Ausfälle und hohe Latenzzeiten auch bei den ganz großen Providern wie Amazon Web Services oder Microsoft gibt es schon heute, und die Datenexplosion hat erst begonnen. Experten wie der Venture Capitalist Peter Levine von Andreessen Horowitz sehen deshalb schon das Ende der Cloud am Horizont: „Ein großer Teil der Rechenleistung, die heute in der Cloud stattfindet, wird zurück zum ‚Edge‘ wandern.“
„Ein großer Teil der Rechenleistung, die heute in der Cloud stattfindet, wird zurück zum ‚Edge‘ wandern“, erwartet Peter Levine vom Venture-Capital-Unternehmen Andreessen Horowitz . (c) Andreessen Horowitz
Das beste Beispiel für ein „Edge Device“ ist für ihn das fahrerlose Automobil. Ausgerüstet mit mehr als 200 CPUs handele es sich im Grunde um ein Data Center auf Rädern, das auch ohne Cloud-Unterstützung funktionieren müsse: „Ein autonomes Fahrzeug, das auf Cloud-Daten angewiesen ist, würde rote Ampeln überfahren und Unfälle verursachen, weil die Latenzzeit für die Datenübertragung zu hoch ist.“ Nachteilig wirke sich die zentrale Cloud auch in vielen Machine-Learning-Szenarien aus, wo es auf eine unmittelbare Verarbeitung zur schnellen Entscheidungsfindung ankomme.
Levine stellt die Diskussion in den Kontext der großen IT-Entwicklungszyklen, die mit dem Mainframe in großen Unternehmen und Behörden begonnen hat. In der Client-Server-Ära wurden etliche Großrechner durch dezentrale Strukturen verdrängt, auch wenn sie nie ganz verschwanden. Die Cloud ist für ihn nichts anderes als ein neuer Mainframe, der nun eben im Data Center eines Providers betrieben werde. Mit Edge Computing und Fog Computing sieht er das Pendel abermals zurückschwingen in Richtung Distributed Computing. Levine: „Das bedeutet, dass die Cloud in nicht allzu ferner Zukunft verschwinden wird.“
DIE VORTEILE VON FOG COMPUTING
Für Konzepte wie Fog Computing spricht nicht nur die Reduzierung des Netzwerk-Traffics. Sie ermöglichen es etwa, dass IoT-Devices auch bei einer gestörten Netzverbindung uneingeschränkt weiter arbeiten können. Sensible Daten müssten zudem nicht vom Ort ihrer Entstehung weg bewegt werden.
Mit einem verteilten Handling von IoT-Daten könnten Unternehmen ihre Analyse- und Entscheidungsprozesse beschleunigen, kommentiert Steve Hilton vom IoT-Beratungshaus Machnation. Aber auch Sicherheitsaspekte spielten eine wichtige Rolle. So gebe es etliche Cloud-Szenarien, in denen Sensordaten aus rechtlichen oder regulatorischen Gründen nicht in ein anderes Land transferiert werden dürften.
Ein Szenario für Fog Computing könnte beispielsweise die intelligente Verkehrssteuerung mit Videokameras sein, heißt es bei Cisco. Die Kameras würden Einsatzfahrzeuge am Blaulicht erkennen und eine grüne Welle schalten. Sowohl die Analyse als auch die Reaktion geschähen vor Ort, ohne dass Daten an ein Rechenzentrum gesendet werden müssten. Cisco rüstet dazu seine Switches und Router mit einem zweiten Betriebssystem auf Linux-Basis aus.
Einen ähnlichen Ansatz verfolgt das Startup Nebbiolo Technologies. Für seine Fog-Computing-Plattform nutzt der kalifornische Anbieter eigenentwickelte Hardware. „Unsere kleinen zentralen Rechner sind das Herz der Industrie 4.0“, wirbt CEO und Gründer Flavio Bonomi. „Sie bieten lokalen Speicherplatz, führen Analysen in Echtzeit durch, bringen Prozesse zusammen und dienen gleichzeitig als Firewall gegen Angriffe von außen.“
Das Marktforschungs- und Beratungshaus Gartner zählt Micro- und Edge Computing-Umgebungen mittlerweile zu den zehn wichtigsten Techniktrends im Bereich Infrastructure und Operations. Bereits 2015 gründeten Cisco, ARM, Dell, Intel, Microsoft und die Princeton University das OpenFog Consortium. Die Organisation hat laut eigenen Angaben inzwischen 57 Mitglieder aus Nordamerika, Asien und Europa.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*