Edge Computing: Wann outsourcen, wann DIY?

Unternehmen haben die Wahl zwischen Edge Computing vor Ort oder der Bereitstellung öffentlicher Edge Services, aber die richtige Entscheidung hängt von Faktoren wie dem Budget, dem internen Fachwissen und den gesetzlichen Anforderungen ab. [...]

Das Fehlen gemeinsamer Standards im Bereich des Edge Computing schränkt die Möglichkeiten der Kunden ein, ihre Edge-Infrastruktur mit Hilfe mehrerer Anbieter aufzubauen (c) pixabay.com

Edge Computing wird an Unternehmenskunden aus nahezu allen Bereichen der Technologiebranche verkauft, und nicht immer gibt es dabei eine klare Trennlinie zwischen „öffentlichen“ Optionen – Edge Computing Sold as a Service, wobei ein Anbieter die operativen Daten direkt verarbeitet – und „privaten“ Optionen, bei denen ein Unternehmen eigenständig eine Edge-Architektur implementiert.

Beide Optionen haben ihre Vorteile und Herausforderungen, und welche die richtige Wahl für ein bestimmtes Unternehmen ist, hängt unter anderem von den individuellen Bedürfnissen, dem Budget und der Personalausstattung ab. Hier sind einige Überlegungen dazu.

Herausforderungen beim internen Edge Computing

Der IT-zentrierte Edge-Ansatz behält den Besitz von Edge-Geräten im eigenen Unternehmen und dürfte für Unternehmen attraktiv sein, die entweder strenge Vorschriften darüber haben, wo sich ihre Daten zu einem bestimmten Zeitpunkt befinden dürfen – ein Anbieter im Gesundheitswesen wäre ein gutes Beispiel – oder bei denen der institutionelle Komfort, diese Daten in die Hände von Dritten wie Versorgungs- und Produktionsunternehmen zu geben, gering ist.

Der interne Umgang mit den Daten kann jedoch eine Herausforderung darstellen. Zum einen, so Christian Renaud, IoT-Praxisdirektor für 451 Research, ist es eine Tatsache, dass vielen IT-Abteilungen das nötige Fachwissen fehlt, um einen Edge-Einsatz allein zu bewältigen.

„Wir stoßen auf einige Anwendungsfälle, in denen das interne IT-Team die Edge-Infrastruktur nicht handhaben kann, so dass es durchaus sinnvoll ist, sie an einen externen Anbieter zu übergeben“, so Renaud. „Die Herausforderung besteht darin, dass das bei Produktionssystemen etwas ganz anderes ist als in der IT, so dass es eine Reihe ziemlich strenger Anforderungen in Bezug auf das gibt, was die OT-Anbieter auf den Netzwerken anderer Leute laufen lassen.

Das Fehlen gemeinsamer Standards im Bereich des Edge Computing schränkt die Möglichkeiten der Kunden ein, ihre Edge-Infrastruktur mit Hilfe mehrerer Anbieter aufzubauen. Ein Unternehmen ist möglicherweise nicht in der Lage, die Sensoren eines Herstellers zu verwenden, ohne auch dessen Edge-Computing-Module oder Netzwerkgeräte zu kaufen, da sie alle Teil desselben Angebots sind.

Brian Hopkins, Vizepräsident und Chefanalyst von Forrester, stellt Edge Computing dem Cloud Computing gegenüber, wo Interoperabilität, offene Frameworks und Containerisierung diese Bedenken nahezu irrelevant machen.

 „[Viele Cloud-Frameworks] müssen sich keine Sorgen um Plattformen oder Standards oder irgendetwas anderes machen, doch wenn man sich in Richtung Edge bewegt, existiert all diese Abstraktion nicht“, erklärte er. „Sie müssen sich also darum kümmern, welchen Server Sie betreiben, welche Kommunikationsprotokolle Sie verwenden … es ist enorm kompliziert.“

Dennoch kann die Edge-Infrastruktur eines einzigen Anbieters Vorteile bieten. Zum Beispiel kann Ciscos Edge-Intelligence-Orchestrierungssoftware, die auf seinen Netzwerkgeräten läuft und von Cisco aus der Ferne verwaltet wird, nur die Daten senden, die Cisco für den Betrieb der Software benötigt, und nicht die Betriebsdaten selbst, so Renaud. Daher könne ein Benutzer die Software nutzen, um eine automatisierte Fabrik zu betreiben, aber niemals spezifische Daten über seine Geräte das eigene Netzwerk verlassen lassen.

Edge Services können zum Lock-in führen

Dies ist die Option, die viele Anbieter bereitstellen wollen, da sie mehr Funktionalität zur Verfügung stellt und damit mehr, als sie von den Kunden zu bezahlen verlangen können. Die Übergabe einer Edge-Compute-Implementierung an einen Anbieter hat den Vorteil, dass die Kosten vorhersehbar sind – man muss nur festgelegte Raten für den Service zahlen, anstatt ein komplexes neues Computersystem zu budgetieren und zu implementieren, dessen endgültige Kosten unvorhersehbar steigen könnten. Outsourcing kann auch die Verantwortung für den Betrieb vereinfachen, da es die Aufgabe des Anbieters ist, die Dinge am Laufen zu halten.

Letztlich ist es die Richtung, in die viele Unternehmen wahrscheinlich gehen werden, so der Networking-Leiter von Accenture North America, Peters Suh.

„Wie bei vielen anderen technologiebezogenen Entscheidungen werden die Betriebskosten, ausreichende technische Ressourcen und Kompetenzen sowie die Frage, ob der Besitz des Network-Edge-Stacks einen strategischen Wert hat, bei diesem Entscheidungsprozess eine Rolle spielen“, sagte er. „Langfristig werden sich die meisten Unternehmen jedoch wahrscheinlich nach Unterstützung durch Dritte umsehen“, sagte er.

Dies bedeutet natürlich auch, dass die Anbieterbindung stark im Spiel ist. Nehmen wir zum Beispiel eine angeschlossene Fabrik, die einen Drittanbieter nutzt, um ihre Maschinen zu instrumentieren und zu orchestrieren. Der Anbieter setzt seine eigenen Sensoren, Netzwerkgeräte, Edge-Boxen zur lokalen Steuerung und schnellen Analyse ein und speist alles in ein Back-End ein, das der Kunde für tiefere Einblicke einsehen kann.

Wenn der Fabrikbesitzer dann auch nur ein Teil des Puzzles – sagen wir, effizientere Sensoren mit neuen Fähigkeiten – ändern möchte, könnte dies das gesamte Ökosystem durcheinander bringen und entweder einen umfassenden Wechsel zu einem neuen Anbieter oder einen umständlichen, komplizierten Implementierungsprozess erforderlich machen, um die Kompatibilität zwischen den neuen Sensoren und allem anderen zu gewährleisten.

Laut Renaud ändert sich das, zumindest bis zu einem gewissen Grad. Noch vor kurzem diktierten die Anbieter von Betriebstechnik weitgehend die Bedingungen für alle ihre Einsätze. Wenn Kunden eine Edge-Implementierung wünschten, mussten sie genau das akzeptieren, was der Anbieter zu bieten hatte.

„Jetzt ist es mehr 50/50, wo jeder sich an den Tisch setzt, um zu entscheiden, wohin die Daten gehen, wie die Sicherheit aussehen soll, um das gewünschte OT-Ergebnis zu erzielen“, meinte er. „Die Herausforderung im Moment besteht darin, dass ein so großer Teil der Orchestrierung von der Arbeitslast und dem Anbieter in Produktionsumgebungen diktiert wird.“

Es ist schwer zu wissen, was Edge bedeutet

Angesichts der Konstellation verschiedener Produkte und Dienstleistungen, die als Edge Computing in Rechnung gestellt werden – und einer allgegenwärtigen Uneinigkeit über eine herstellerunabhängige Definition des Begriffs – kann es eine lästige Pflicht sein, nur festzunageln, ob eine bestimmte Lösung überhaupt „Edge“ ist, geschweige denn „in-house“ oder „Edge as a service“.

Eine Lösung könnte privates 5G oder LTE für den Netzwerkteil verwenden, die Daten aber vollständig auf den Servern des Kunden aufbewahren. Eine andere könnte die Carrier-Konnektivität nutzen, um Daten von einem Rechenzentrum in eine private Cloud oder in die Cloud eines anderen Anbieters zu verschieben. Wieder andere lagern den gesamten betrieblichen Tech-Stack an einen Anbieter aus, der die Sensoren, die Edge-Hardware, das Netzwerk und die Berechnung bereitstellt und den Kunden ein Dashboard bietet, über das sie alle benötigten Informationen einsehen können.

Dabei handelt es sich um sehr unterschiedliche Technologien mit einer Vielzahl von geeigneten Anwendungsfällen, die jedoch alle als „Edge Computing“ verkauft werden. Nach Angaben der Netzbetreiber meint „Edge“ den Rand des Netzwerks. Per Hopkins zufolge haben die Netzbetreiber seit Jahren ihre Einnahmen zumeist aus dem Verkauf einfacher Konnektivität der einen oder anderen Art erzielt und betrachten Edge Computing als eine großartige Möglichkeit, Over-the-Top-Services wie die Verwaltung zahlreicher Arten von Edge-Infrastrukturen als Mehrwert einzuführen.

„Wenn Sie also ein Werbetreibender oder Marketer sind, sagt man: ‚Wenn Sie Anwendungen für die Weiterleitung von Anzeigen an lokale Kunden installieren wollen, ist unsere Infrastruktur der richtige Ort dafür“, so Hopkins.

In ähnlicher Weise betrachten Content-Delivery-Netzwerke wie Fastly und Akamai ihre zahlreichen globalen Points-of-Presence, die traditionell für die Bereitstellung nachgefragter Daten genutzt werden, und sehen sie als eine Gelegenheit, sich zu verzweigen. Da eines der Markenzeichen von Edge Computing die Bereitstellung von Diensten mit sehr niedriger Latenzzeit ist und diese niedrige Latenzzeit seit Jahren das Hauptargument der CDNs ist, sind die Akamais und Fastlys der Welt darauf erpicht, sich als POPs für den Edge zu verkaufen. Wenn ein Kunde das Verbindungsstück herausfinden kann, kann die Datenverarbeitung als Dienstleistung in einem dieser POPs in der Nähe durchgeführt werden. Beispielsweise könnte der Werbetreibende in Hopkins‘ Beispiel ein CDN als Clearing-Stelle für standortabhängiges Adserving nutzen.

*Jon Gold deckt IoT und drahtlose Netzwerke für Network World ab.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*