Wird die Datengravitation Cloud oder Edge bevorzugen?

Ein branchenüblicher Rahmen für vertrauliche Datenverarbeitung könnte eine sichere Datenverarbeitung sowohl im Zentrum als auch am Rand ermöglichen. [...]

Cloud oder Edge? James Kobielus gibt seine Einschätzung über die Zukunft der Datengravitation (c) Pixabay.com

Die Online-Wirtschaft ist durchdrungen von Anwendungen. Und doch ist noch nicht ganz klar, ob sich ihr Einsatz in eine hauptsächlich zentripetale oder in eine zentrifugale Richtung bewegt, d.h. ob sie zum Cloud Center gravitieren oder sich nach außen an den Rand bewegen.

Anwendungen – in Form von Software, Services, Workloads und Geschäftslogik – tendieren dazu, sich in grober Übereinstimmung mit den Daten zu bewegen, die sie erzeugen und verbrauchen. Je nachdem, wen man fragt, strömen Apps entweder massenhaft in den Kern der Cloud – angezogen durch das wachsende Volumen an Datenseen – oder sie streuen als winzige Mikroservices ins Edge, nachdem sich mobile, eingebettete und IoT-Geräte durchgesetzt haben.

Ist die Datengravitation Realität?

Wir leben in einer zunehmend vernetzten Welt, so dass der Trend leicht in beide Richtungen gehen könnte. Einige Beobachter zitieren den neuen Begriff der „Datengravitation“, um jede Richtungsänderung zu unterstützen, die sie bei der Bereitstellung von Online-Anwendungen beobachten können.

Bei der Erklärung der vermeintlichen Anziehungskraft von Daten scheinen die meisten Beobachter die folgenden Grundprinzipien anzunehmen:

  • Leistung: Je näher sich Apps den Daten nähern, desto geringer ist die Latenzzeit und desto höher der Durchsatz bei datenzentrischen Funktionen.
  • Kontrolle: Wenn sich Apps näher an Daten annähern, können sie umfassendere und detailliertere Sicherheits- und Governance-Kontrollen für die Nutzung und Verarbeitung dieser Daten anwenden.
  • Kosten: Da sich Apps näher an die Daten heranwagen, können sie von einer höheren Effizienz profitieren, die mit dem Hosting und der Verwaltung der entsprechenden datenzentrierten Anwendungs-Workloads verbunden ist.
  • Skalierbarkeit: Da sich Apps näher an Daten annähern, können sie einen datenzentrierten Mehrwert erhalten, da sie kumulativ in der Lage sind, leicht auf ein höheres Datenvolumen und eine Vielzahl von Daten zuzugreifen, wenn diese Daten persistent sind.
  • Funktionalität: Wenn sich Anwendungen näher an die Daten annähern, können sie die Vorteile der spezialisierten Datenanalyse, Integration, Manipulation und anderer Funktionen der zugrunde liegenden Quelle oder des Repositorys besser nutzen.

Datengravitation und hyperkonvergente Infrastruktur

Wenn die Datengravitation real ist, sollten wir erwarten, dass sie ihren Einfluss in der Architektur von Cloud-to-Edge-Umgebungen zeigt. Es ist jedoch keineswegs klar, dass die Datengravitation in dieser Hinsicht einen Nettoeffekt gehabt hat.

Einige haben auf eine hyperkonvergente Infrastruktur als Hardware-Enabler für die Datengravitation im Zentrum hingewiesen. Nach diesem Argument hat die Anziehungskraft von Daten die enge Kopplung von Datenspeichern mit Ressourcen der Anwendungsverarbeitung – Berechnung, Speicher, Vernetzung und Virtualisierung – innerhalb einer neuen Generation von Standard-Hardwarelösungen in Cloud-Rechenzentren vorangetrieben.

Wenn man jedoch auf eine hyperkonvergente Infrastruktur verweist, als wäre sie ein Argument für eine Cloud-basierte Datengravitation, ignoriert man die Tatsache, dass viele solcher Hardware-Boxen in Edge-Umgebungen eingesetzt werden, nicht nur massiv gerackt und gestapelt in Cloud-Rechenzentren. Die Anziehungskraft des Edge kommt eher von der Notwendigkeit, die Benutzererfahrungen kontinuierlich zu optimieren – mobil, interaktiv, in Echtzeit, Streaming – als von jeder magisch attraktiven Masse in den an diesen Knoten gespeicherten Daten.

Zudem könnte das Argument der „Datengravitation“ für eine hyperkonvertierte Infrastruktur leicht umgedreht werden. Die Rechenleistung, die die Runtime-Grundlage aller Apps ist, tendiert dazu, andere Ressourcen – einschließlich Daten – in ihre Richtung zu ziehen. Da diese Ressourcen in einem hyperconvergierten Chassis neben CPUs und anderen Prozessoren liegen, könnten damit einhergehende Verbesserungen in den Bereichen Anwendungsleistung, Steuerung, Kosten, Skalierung und Funktionalität genauso einfach Daten an den Rand ziehen wie sie an die Cloud binden.

Datengravitation und vertrauliche Datenverarbeitung

Da es vielen Unternehmen an der Möglichkeit mangelt, sensible Daten zu isolieren und zu schützen, entscheiden sie sich einfach dafür, diese Daten nicht außerhalb ihrer Netzwerke zu verschieben. Die Datendichte kann sich leichter an die Grenzen verschieben, wenn die Daten im Einsatz durch einen Ansatz geschützt werden können, der über alle Plattformen, Anwendungen und Tools hinweg standardisiert ist.

Um diese Vision zu verwirklichen, wäre ein Schlüsselfaktor die Post-Perimeter-Sicherheit, bei der Authentifizierung, Berechtigung, Vertraulichkeit und andere Kontrollen die Daten kontinuierlich dahin verfolgen, wo sie gerade leben. Relevante Verarbeitungsknoten hätten immer Zugriff auf die relevanten Sicherheitsressourcen, die benötigt werden, um den Zugriff auf verwaltete Datenressourcen im Gebrauch, im Ruhezustand oder in Bewegung freizuschalten.

Ein weiteres wesentliches Element wäre vertrauliche Computerhardware, die die Datensicherheit nach dem Perimeter durch vertrauenswürdige Ausführungsumgebungen implementiert, die in jeden Knoten von der Cloud bis zum Rand eingebettet sind. Die Vorteile der standardisierten Hardwarebeschleuniger für vertrauliche Datenverarbeitung liegen auf der Hand. Sie eignen sich hervorragend für die Einbettung von Passwortmanagern auf Geräteebene und Key Managern, Blockchain- und E-Banking-Wallets, KI- und maschinelle Lernanwendungen, Messaging-Anwendungen und alle anderen Programme, die mit sensiblen Daten umgehen. Sie würden jedoch erhebliche Änderungen in der Art und Weise erfordern, wie Entwicklungswerkzeuge Anwendungen erstellen, um die Vorteile solcher Schutzmaßnahmen nutzen zu können.

Dieses neue Paradigma stellt einen grundlegenden Wandel in der Art und Weise dar, wie Berechnungen auf Hardwareebene durchgeführt werden. Es ermöglicht die Verarbeitung verschlüsselter Daten im Speicher auf einem bestimmten Knoten, ohne sie unbefugten Softwareprogrammen oder anderen lokalen Ressourcen auszusetzen. Wie in Umgebungen wie AMDs Secure Encrypted Virtualization, Intels Software Guard Extensions, Red Hat’s Enarx und Googles Asylo Project implementiert, würde die vertrauliche Computertechnologie sensible Daten-Nutzlasten isolieren, während sie im Speicher in Anwendungen verwendet werden.

Wenn ein hardwarebasiertes, vertrauliches Computing-Framework nach Industriestandard auf dem Markt Einzug hält, könnte es die Anziehungskraft von On-Prem-Systemen auf sensible Unternehmensdaten erheblich verringern. Die jüngste Gründung des Confidential Computing Consortium durch die Linux Foundation ist der richtige Schritt in diese Richtung. Die Gruppe – zu der Alibaba, Arm, Baidu, Google, IBM, Intel, Microsoft und andere als Hauptsponsoren und Teilnehmer gehören – entwickelt ein gemeinsames, branchenübergreifendes Open-Source-Framework, um persistente, speicherinterne und benutzerinterne Sicherheitsfunktionen in jede Anwendung zu integrieren und sicherzustellen, dass sie an jedem Knoten stringent ausgeführt werden können.

Daten bei Nullgravitation

Um das Potenzial von vertraulichem Computing voll auszuschöpfen, müsste ein Industriestandard-Framework in eine breitere Post-Perimeter-Infrastruktur integriert werden. In der idealen Umgebung werden Datensicherheits- und Governance-Kontrollen überall dort konsequent durchgesetzt, wo sich die Daten befinden, vom Cloud-Kern bis zu den unzähligen Edges. Diese Kontrollen würden unter allen Szenarien effizient und skalierbar durchgeführt, einschließlich der verwendeten Daten, der gespeicherten Daten und der Daten im Flug.

Würde die ideale Infrastruktur für vertrauliche Datenverarbeitung die „Schwerkraft“ der Daten vom Kern auf den Rand bringen? Nicht unbedingt. Wenn es sich um eine universelle, standardisierte, konsistent leistungsstarke Infrastruktur handelte, die alle Knoten einer verteilten Struktur unterstützt, sollte sie keinen Nettoeffekt auf die Verteilung von Daten oder die Apps, die sie versorgen, haben.

*James Kobielus ist der führende Analyst von SiliconAngle Wikibon für KI, Datenwissenschaft und Anwendungsentwicklung.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*