KI braucht keine größeren Budgets, sie braucht die passende Infrastruktur



Für die meisten Unternehmen ist es weder praktikabel noch notwendig, dem KI-Wettrüsten von Google, Microsoft, Meta und Amazon zu folgen, denn Unternehmen nutzen KI komplett anders. [...]

Google, Microsoft, Meta und Amazon haben gute Gründe für ihre sehr hohen Investitionen in KI. Das bedeutet jedoch nicht, dass normale Unternehmen auch Rekordbudgets für ihre KI-Strategie einplanen müssen. KI braucht keine höheren Budgets. Sie braucht nur eine bessere Grundlage. (c) stock.adobe.com/Sari

Die Giganten der Tech-Branche planen in diesem Jahr mehr als 300 Milliarden US-Dollar auszugeben, um im KI-Wettrüsten wettbewerbsfähig zu bleiben. Allein Amazon hat über 100 Milliarden US-Dollar angekündigt, während Microsoft, Alphabet und Meta jeweils weitere Dutzende Milliarden für den Bau riesiger Rechenzentren, den Ausbau von GPU-Clustern und die Sicherung ihrer Dominanz im Bereich der Cloud-basierten KI ausgeben wollen. Investitionen in dieser Größenordnung sorgen für Schlagzeilen und viele Unternehmen, die selbst dabei sind, ihre KI-Strategie zu planen, sehen sich gezwungen, ihrerseits hohe Budgets einzuplanen. Für die meisten Unternehmen ist es jedoch weder praktikabel noch notwendig, den Plänen der Hyperscaler zu folgen. IT-Führungskräfte fragen sich deshalb zurecht, was für den Einsatz der KI im Unternehmen tatsächlich benötigt wird.



Im Unternehmen wird KI komplett anders genutzt


Wie bei allen Workloads, die ein Unternehmen im Einsatz haben kann, gibt es auch bei KI prinzipiell drei Ansätze: 1. Hosten der Workloads in der Public Cloud. 2. Hosten der Workloads in der Private Cloud bzw. dem eigenen Rechenzentrum. Und 3. Hosten der Workloads am Edge. Um bestimmen zu können, was die beste Infrastruktur für selbst gehostete KI-Workloads ist, hilft es sich anzuschauen, wie KI in Unternehmen überhaupt genutzt wird. Dabei fällt auf, dass viele KI-Workloads eingesetzt werden, um Entscheidungen vor Ort in Echtzeit treffen zu können, Abläufe zu automatisieren oder Videostreams zu analysieren. Diese Natur von KI-Workloads ändert die Anforderungen an die Infrastruktur dramatisch.



Künstliche Intelligenz in der Cloud

Cloud-Strategien, und insbesondere Cloud-First-Strategien, bringen beim Hosten von Workloads hinsichtlich Kosten und Kontrolle bekannterweise zahlreiche Herausforderungen mit sich. Doch wenn es um KI geht, ist die höhere Latenz der Cloud ein fast unlösbares Problem. Autonome Fahrzeuge können beispielsweise nicht auf die Entscheidung eines in der Cloud gehosteten KI-Modells warten, um einen Fußgänger zu erkennen. Dies muss in Echtzeit im Auto selbst geschehen.

Neben der höheren Latenz sind auch Ausfälle der Cloud generell problematisch und stellen in vielen Szenarien ein inakzeptables Risiko dar. KI-Workloads, und speziell solche, die eine Echtzeitverarbeitung erfordern, können sich den Roundtrip in die Cloud einfach nicht leisten. Sie müssen dort ausgeführt werden, wo die Daten generiert werden, also in Fabrikhallen, Filialen, Geschäften und Büros. Näher als die Public Cloud wäre die Private Cloud im eigenen Rechenzentrum. Doch auch diese Infrastruktur ist für KI-Workloads meist ungeeignet, da sie nicht für Remote-Umgebungen oder Umgebungen mit begrenzten Ressourcen ausgelegt sind. Traditionelle Stacks sind darüber hinaus zu komplex, verbrauchen zu viel Strom und sind zu teuer, um in großem Maßstab eingesetzt zu werden.



KI am Edge

Cloud-Infrastrukturen in der Cloud oder im zentralen Rechenzentrum eigenen sich offenbar nicht sehr gut für das Hosten von KI-Workloads am Edge. Mit der Verlagerung von KI-Workloads an den Netzwerkrand stellt sich natürlich die Frage, ob Workloads mit einer lokalen Edge-Infrastruktur besser und effizienter gehostet werden können. Und tatsächlich erhält der Ansatz mit der Ankunft von KI-Workloads neuen Rückenwind. Denn CPUs sind mehr als fähig, reale Inferenzmodelle am Edge auszuführen, insbesondere wenn sie lokalisiert ist und das Training in der Cloud erfolgt. Es werden keine mit GPUs vollgepackten Racks benötigt, sondern lediglich Infrastruktur die leicht, widerstandsfähig und für die jeweilige Aufgabe richtig dimensioniert ist.

Die Lösung liegt auf der Hand: Die ideale Infrastruktur für KI-Workloads am Unternehmensrand wäre eine speziell für das Edge entwickelte hyperkonvergente Infrastruktur (HCI). Edge-Computing mit HCI ist beileibe auch nichts Neues und hat ist schon seit Langem in vielen Umgebungen im Einsatz. Erhältliche Lösungen sind kompakt, zuverlässig stromsparend und einfach zu verwalten und machen es möglich, KI dort einzusetzen, wo die Daten generiert werden.

Nicht die Kosten sind das Problem, sondern die Komplexität

Ein weit verbreiteter Vorbehalt ist, dass solche Edge-Lösungen sehr teuer sind. Das mag in der Vergangenheit gestimmt haben, ist heute aber nicht mehr der Fall. Eine vollständig redundante Konfiguration mit hoher Verfügbarkeit kostet heute oft weniger als ein Monat vergleichbarer Cloud-Dienste. Die eigentliche Hürde sind jedoch nicht die Kosten, sondern die Komplexität. IT-Teams sind bereits ausgelastet. Die meisten Teams wären nicht in der Lage, Dutzende oder Hunderte neuer Remote-Standorte mit der gleichen Sorgfalt zu verwalten wie ein zentralisiertes Rechenzentrum.

Aus diesem Grund muss moderne Edge-Infrastruktur auf Einfachheit und Autonomie ausgelegt sein. Sie sollte Plug-and-Play-fähig, aus der Ferne verwaltbar und ausfallsicher sein. Da die Datenverarbeitung immer dezentraler wird und KI sich immer mehr dem Edge nähert, werden diejenigen Plattformen am erfolgreichsten sein, die den IT-Betrieb vereinfachen, anstatt ihn zu verkomplizieren. IT-Führungskräfte benötigen kein weiteres System, das sie betreuen müssen. Sie brauchen Lösungen, die mit minimalem Aufwand maximale Ergebnisse liefern.



Die richtige Infrastruktur wählen


CIOs und IT-Manager wissen, dass sie beim Thema KI liefern müssen. Das Geschäft verlangt schnellere Innovationen, und KI wird für die meisten Unternehmen zu einer Notwendigkeit, um im Wettbewerb mithalten zu können. Das bedeutet jedoch nicht zwangsläufig, dass hohe Budgets notwendig werden. Anstatt die Strategien von Hyperscalern zu kopieren, sollten Unternehmen sich bei der Planung ihrer KI-Infrastruktur folgende drei Fragen stellen:

  1. Welche KI-Anwendungen müssen näher am Netzwerkrand sein?

  2. Welche Probleme kann es in Bezug auf Latenz, Ausfallsicherheit oder Kosten geben?

  3. Wie können wir KI ermöglichen, ohne unseren gesamten Stack neu aufzubauen?

Die Antworten variieren je nach Unternehmen. In vielen Fällen legen die Antworten jedoch nahe, die Infrastruktur zu überdenken, und bereits vorhandene Budgets einzusetzen, anstatt mehr Budget einzuplanen.



Fazit: KI braucht keine höheren Budgets

Google, Microsoft, Meta und Amazon haben gute Gründe für ihre sehr hohen Investitionen in KI. Das bedeutet jedoch nicht, dass normale Unternehmen auch Rekordbudgets für ihre KI-Strategie einplanen müssen. Mit hyperkonvergenter Infrastruktur können Unternehmen Intelligenz näher an den Ort der Entscheidungsfindung bringen und erzielen bessere Leistung und höhere Ausfallsicherheit bei geringeren Kosten, verglichen mit der Cloud oder dem traditionellen Rechenzentrum. KI braucht somit keine höheren Budgets. Sie braucht nur eine bessere Grundlage.

* Tobias Pföhler ist Regional Sales Manager für die DACH-Region bei StorMagic.


Mehr Artikel

News

Produktionsplanung 2026: Worauf es ankommt

Resilienz gilt als das neue Patentrezept, um aktuelle und kommende Krisen nicht nur zu meistern, sondern sogar gestärkt daraus hervorzugehen. Doch Investitionen in die Krisenprävention können zu Lasten der Effizienz gehen. Ein Dilemma, das sich in den Griff bekommen lässt. […]

Maximilian Schirmer (rechts) übergibt zu Jahresende die Geschäftsführung von tarife.at an Michael Kreil. (c) tarife.at
News

tarife.at ab 2026 mit neuer Geschäftsführung

Beim österreichischen Vergleichsportal tarife.at kommt es mit Jahresbeginn zu einem planmäßigen Führungswechsel. Michael Kreil übernimmt mit 1. Jänner 2026 die Geschäftsführung. Maximilian Schirmer, der das Unternehmen gegründet hat, scheidet per 14. April 2026 aus der Gesellschaft aus. […]

News

Warum Unternehmen ihren Technologie-Stack und ihre Datenarchitektur überdenken sollten

Seit Jahren sehen sich Unternehmen mit einem grundlegenden Datenproblem konfrontiert: Systeme, die alltägliche Anwendungen ausführen (OLTP), und Analysesysteme, die Erkenntnisse liefern (OLAP). Diese Trennung entstand aufgrund traditioneller Beschränkungen der Infrastruktur, prägte aber auch die Arbeitsweise von Unternehmen.  Sie führte zu doppelt gepflegten Daten, isolierten Teams und langsameren Entscheidungsprozessen. […]

News

Windows 11 im Außendienst: Plattform für stabile Prozesse

Das Betriebssystem Windows 11 bildet im technischen Außendienst die zentrale Arbeitsumgebung für Service, Wartung und Inspektionen. Es verbindet robuste Geräte, klare Abläufe und schnelle Entscheidungswege mit einer einheitlichen Basis für Anwendungen. Sicherheitsfunktionen, Updates und Unternehmensrichtlinien greifen konsistent und schaffen eine vertrauenswürdige Plattform, auf der sowohl Management als auch Nutzer im Feld arbeiten können. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*