KI-Modelle an jedem Ort in Echtzeit betreiben

Die Nutzung von Synergien zwischen HCI, Cloud und Edge ermöglicht es Unternehmen, dezentralisierte Infrastrukturen einzurichten, um so das volle Potenzial von KI nutzen zu können. Hyperkonvergente Infrastruktur (HCI) kann viele der Leistungs-, Logistik- und Kostenprobleme beseitigen, die die Cloud nicht lösen kann. [...]

Da viele Unternehmen gerade dabei sind, KI-Anwendungen einzuführen, wächst der Bedarf an Lösungen für Edge Computing exponentiell an. Diese Dezentralisierung stellt die IT vieler Unternehmen mit hohen Investitionen in Cloud-Technologien jedoch vor ein Dilemma. (c) stock.adobe.com/Newleks

Künstliche Intelligenz wird bereits in sehr vielen Bereichen eingesetzt und breitet sich weiter aus. Für die IT vieler Unternehmen geht es im Kern darum, die Infrastruktur so aufzubauen, dass Unternehmen die Vorteile der schlauen Algorithmen voll nutzen können. Dabei erweist sich die seit Jahrzehnten erstellte Zentralisierung der Computerinfrastruktur als Hemmschuh, denn in Private und Public Cloud zentralisierte Infrastrukturen eignen sich nicht sehr gut für KI-Workloads, die nur dann ihre Stärken voll ausschöpfen können, wenn sie schnelle Analysen in Echtzeit dort bereitstellen, wo die Daten generiert werden – am Edge.

KI lässt Edge-Computing exponentiell wachsen

Die Lösung des Problems liegt auf der Hand: Edge Computing. Der Ansatz ist beileibe nichts neues und mehrere Generationen hyperkonvergenter Infrastruktur helfen Unternehmen mit über großen Distanzen verteilten Niederlassungen schon seit Jahren dabei, Workloads vor Ort bereitzustellen. Mit KI kommt ein weiterer wichtiger Anwendungszweck für Edge Computing hinzu. Der Ansatz verschiebt die Verarbeitungsressource in die Nähe der Datenquelle, eliminiert so das Problem langer Latenzzeiten und hilft so das Potenzial von KI-Anwendungen voll auszuschöpfen. Da viele Unternehmen gerade dabei sind, KI-Anwendungen einzuführen, wächst der Bedarf an Lösungen für Edge Computing exponentiell an. Diese Dezentralisierung stellt die IT vieler Unternehmen mit hohen Investitionen in Cloud-Technologien jedoch vor ein Dilemma.

KI-Workloads können nur dann ihre Stärken voll ausschöpfen, wenn sie schnelle Analysen in Echtzeit dort bereitstellen, wo die Daten generiert werden – am Edge. Zentralisierte Infrastrukturen in Public und Private Cloud eignen sich nicht für diese Anwendungsfälle. (c) StorMagic

Der Platz der Cloud in einer dezentralen Architektur

Diese Unternehmen sträuben sich gegen Dezentralisierung und die Einführung neuer Hardware am Netzwerkrand, obwohl sie Probleme mit der Kommunikation von Edge-Anwendungen haben. Dies betrifft vor allem Unternehmen, die in den letzten Jahren stark in Cloud-Technologien investiert haben, insbesondere, über Strategien wie „Cloud-First“ oder gar „Cloud-Only“. Für solche Unternehmen wäre der Einsatz von Edge Computing mit einer grundlegenden Abkehr ihrer Cloud-Philosophie verbunden. Und Unternehmen mit einem „Cloud-Only“-Ansatz fehlt es möglicherweise auch an der nötigen Flexibilität, um Änderungen vorzunehmen, wenn sie bereits in teure Cloud-Verträge eingebunden sind. Auch wirft der Ort der Datenspeicherung komplexe Fragen auf, die Compliance und Security betreffen.

Eine leichtgewichtige, auf KI ausgerichtete Architektur

Die gute Nachricht für solche Firmen ist, dass modernes Edge Computing heutzutage äußerst einfach zu nutzen ist. Die Anbieter von HCI-Lösungen haben sich von Generation zu Generation darauf konzentriert, die Komplexität bei der Einrichtung und Verwaltung der kompakten Lösungen zu reduzieren. Für die Implementierung ist heute schon kein spezielles Fachwissen mehr erforderlich, stattdessen können IT-Experten neue Standorte oder Anwendungen in weniger als einer Stunde einrichten und in Betrieb nehmen. Zentralisierte Verwaltungstools sorgen dafür, dass Administratoren Edge-Standorte von einer einzigen Konsole aus fernverwalten können. Die Lösungen kommen in einem Format, das seine Ressourcen automatisch balanciert, um optimale Effizienz zu erzielen und Über- oder Unterversorgung zu vermeiden. Modernste Lösungen sind kompakt, flexibel und modular und wurden von Anfang an für kleinere Edge-Standorte konzipiert. Sie beinhalten alle Funktionen, die für die lokale Ausführung von Anwendungen und die Verbindung mit der Cloud und dem Rechenzentrum erforderlich sind.

Fazit: Nutzung von Synergien zwischen HCI, Cloud und Edge macht KI-Nutzung am Edge möglich

IoT- und KI-Anwendungen am Netzwerkrand benötigen dezentralisierte, flexible und skalierbare Infrastrukturen, die die Leistungs-, Logistik- und Kostenprobleme beseitigt, die die Cloud nicht lösen kann. Synergien zwischen Edge Computing, Cloud und HCI ermöglicht es IT-Abteilungen, schnell robuste und skalierbare dezentralisierte Infrastrukturen einzurichten, so dass Unternehmen das volle und wachsende Potenzial von KI im Edge-Bereich nutzen können. Moderne hyperkonvergente Infrastrukturen erfüllen diese anspruchsvollen Anforderungen. Sie werden einen großen Beitrag dazu leisten, dass Latenzzeiten im verteilten Computing der Vergangenheit angehören, ohne das Budget zu sprengen.

* Tobias Pföhler ist Regional Sales Manager für die DACH-Region bei StorMagic.


Mehr Artikel

News

Produktionsplanung 2026: Worauf es ankommt

Resilienz gilt als das neue Patentrezept, um aktuelle und kommende Krisen nicht nur zu meistern, sondern sogar gestärkt daraus hervorzugehen. Doch Investitionen in die Krisenprävention können zu Lasten der Effizienz gehen. Ein Dilemma, das sich in den Griff bekommen lässt. […]

Maximilian Schirmer (rechts) übergibt zu Jahresende die Geschäftsführung von tarife.at an Michael Kreil. (c) tarife.at
News

tarife.at ab 2026 mit neuer Geschäftsführung

Beim österreichischen Vergleichsportal tarife.at kommt es mit Jahresbeginn zu einem planmäßigen Führungswechsel. Michael Kreil übernimmt mit 1. Jänner 2026 die Geschäftsführung. Maximilian Schirmer, der das Unternehmen gegründet hat, scheidet per 14. April 2026 aus der Gesellschaft aus. […]

News

Warum Unternehmen ihren Technologie-Stack und ihre Datenarchitektur überdenken sollten

Seit Jahren sehen sich Unternehmen mit einem grundlegenden Datenproblem konfrontiert: Systeme, die alltägliche Anwendungen ausführen (OLTP), und Analysesysteme, die Erkenntnisse liefern (OLAP). Diese Trennung entstand aufgrund traditioneller Beschränkungen der Infrastruktur, prägte aber auch die Arbeitsweise von Unternehmen.  Sie führte zu doppelt gepflegten Daten, isolierten Teams und langsameren Entscheidungsprozessen. […]

News

Windows 11 im Außendienst: Plattform für stabile Prozesse

Das Betriebssystem Windows 11 bildet im technischen Außendienst die zentrale Arbeitsumgebung für Service, Wartung und Inspektionen. Es verbindet robuste Geräte, klare Abläufe und schnelle Entscheidungswege mit einer einheitlichen Basis für Anwendungen. Sicherheitsfunktionen, Updates und Unternehmensrichtlinien greifen konsistent und schaffen eine vertrauenswürdige Plattform, auf der sowohl Management als auch Nutzer im Feld arbeiten können. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*