Die Zukunft braucht offene KI-Infrastrukturen

künstliche Intelligenz ist längst wesentlicher Bestandteil des Alltags geworden – in professionellen, aber auch privaten Umgebungen. Sie ist DIE treibende Kraft, weshalb ihre Inferenz zusehends in den Fokus von Unternehmen rückt. Um das maximale Potenzial zu entfalten, müssen sich KI-Infrastrukturen und -Ökosysteme öffnen, fordert Jeff Wittich, CPO bei Ampere. [...]

Jeff Wittich, Chief Product Officer bei Ampere (c) Ampere Comuting
Jeff Wittich, Chief Product Officer bei Ampere (c) Ampere Comuting

KI ist mehr als ein ominöses Hinterzimmer-Experiment. Die Technologie ist eine treibende Kraft, wenn es um Produkte, Entscheidungen und Nutzererfahrungen über jegliche Wirtschaftsbereiche hinaus geht.

Mittlerweile stellen Unternehmen jedoch die Inferenz in den Mittelpunkt ihrer KI-Implementierungen. Hier können die Modelle ihren eigentlichen Mehrwert unter Beweis stellen – unter anderem in Form von Antworten auf drängende Fragen, Vorhersagen und Content-Generierung. Der Anstieg des Inferenz-Bedarfs bringt jedoch eine entscheidende Herausforderung mit sich. Bei Inferenzen handelt es sich nämlich nicht um einzelne Workloads. 

Vielmehr umfassen sie eine stetig wachsende Bandbreite an Anwendungen, die in Hyperscale-Rechenzentren, Fabrikräumen, smarten Kameras, mobilen Geräten und eingebetteten Systemen zu finden sind. Gleichzeitig bringt jeder Anwendungsfall unterschiedliche Anforderungen in Sachen Latenz, Energieverbrauch, Kosten, Datendurchlauf und Platzbedarf mit sich. Die Tatsache, dass kein System allen auf einmal gerecht werden kann, unterstreicht einmal mehr, dass wir Einheitsinfrastrukturen für KI hinter uns lassen müssen.

Trotz der wachsenden Komplexität verlässt sich ein Großteil der Branche noch immer auf vertikal integrierte, geschlossene Systeme, die sich nur schwer individuell anpassen lassen. Dieser Ansatz reichte aus, als es vor allem noch darum ging, Modelle in kontrollierten Umgebungen zu trainieren. Allerdings entspricht er längst nicht mehr den Bedürfnissen moderner, sich schnell entwickelnder Implementierungen. Wer weiterhin diverse Workloads in starre Infrastrukturen zwängen will, riskiert, den gesamten Prozess zu drosseln, während die KI in beinahe jedem Bereich das Tempo ordentlich anzieht.

Demnach ist klar: KI-Infrastrukturen und -Ökosysteme müssen sich öffnen.

Eine offene, modulare und auf Standards basierende Infrastruktur ist notwendig, um mit der schnellen Diversifizierung von KI-Workloads mithalten zu können. Anstelle von Einheitslösungen lassen sich mit ihr Systeme um die speziellen Anforderungen von Implementierungen herum aufbauen. Zudem senkt eine solche Infrastruktur die Integrationshürden, begünstigt die Iteration auf Komponentenebene und ermöglicht so schnellere Innovationszyklen. Darüber hinaus fördert sie einen gesünderen und kompetitiveren Markt, auf dem Systemdesignern und Entwicklern nicht nur Standardkonfigurationen, sondern auch sinnvolle Optionen zur Verfügung stehen.

Schon jetzt trägt dieser Wandel erste Früchte. So unterstützen Initiativen wie das Datacenter-Modular-Hardware-System (DC-MHS) die Interoperabilität über verschiedene Anbieter und Komponenten hinweg – ein guter Anfang für ein Workload-getriebenes Design, das auf Modularität setzt. Allerdings kann keine Spezifikation diese Transformation allein tragen. Vielmehr braucht es ein breiteres, kollaboratives Ökosystem, das innovative Hardware-, Software- und Plattform-Anbieter miteinander verbindet und so die Anpassungsfähigkeit des gesamten KI-Stacks gewährleistet. Ein wirklich offenes Ökosystem geht jedoch über die reine Kompatibilität hinaus. Es ermöglicht der gesamten Wertschöpfungskette, ihre Innovationskraft frei zu entfalten und Lösungen zu entwickeln, die den vielfältigen, sich weiterentwickelnden Anforderungen innerhalb von Produktionsumgebungen gerecht werden.

Dafür braucht es ein neues Mindset, das beim Aufbau einer Infrastruktur nicht nur die Größe, sondern auch die Anpassungsfähigkeit sowie die Langlebigkeit berücksichtigt. Sowohl KI-Technologien als auch die entsprechenden Umgebungen entwickeln sich rasant weiter. Das bedeutet, dass Infrastruktur grundlegend neu gedacht werden muss. Als Kernprinzip sollte nicht nur die Leistung im Fokus stehen, sondern auch Offenheit, Modularität und Flexibilität. Die Systeme, die wir heute aufbauen, müssen die Workloads der Zukunft stemmen können.

Jetzt ist es Zeit zu handeln. Sowohl Hardware- als auch Software-Anbieter sowie Systementwickler und führende Tech-Experten müssen zusammenkommen und den Übergang hin zu einer offenen Infrastruktur vorantreiben. Dazu gehört es auch, sich in Sachen Standards anzugleichen, echte Interoperabilität zu gewährleisten und in Ökosysteme zu investieren, die die Entscheidungsfreiheit fördern und ein Workload-spezifisches Design ermöglichen. KI beeinflusst bereits zahlreiche Bereiche – jetzt fehlt nur noch eine auf die Zukunft ausgelegte Infrastruktur.

*Jeff Wittich ist Chief Product Officer bei dem im kalifornischen Santa Clara beheimateten Unternehmen Ampere Computing.


Mehr Artikel

News

Produktionsplanung 2026: Worauf es ankommt

Resilienz gilt als das neue Patentrezept, um aktuelle und kommende Krisen nicht nur zu meistern, sondern sogar gestärkt daraus hervorzugehen. Doch Investitionen in die Krisenprävention können zu Lasten der Effizienz gehen. Ein Dilemma, das sich in den Griff bekommen lässt. […]

Maximilian Schirmer (rechts) übergibt zu Jahresende die Geschäftsführung von tarife.at an Michael Kreil. (c) tarife.at
News

tarife.at ab 2026 mit neuer Geschäftsführung

Beim österreichischen Vergleichsportal tarife.at kommt es mit Jahresbeginn zu einem planmäßigen Führungswechsel. Michael Kreil übernimmt mit 1. Jänner 2026 die Geschäftsführung. Maximilian Schirmer, der das Unternehmen gegründet hat, scheidet per 14. April 2026 aus der Gesellschaft aus. […]

News

Warum Unternehmen ihren Technologie-Stack und ihre Datenarchitektur überdenken sollten

Seit Jahren sehen sich Unternehmen mit einem grundlegenden Datenproblem konfrontiert: Systeme, die alltägliche Anwendungen ausführen (OLTP), und Analysesysteme, die Erkenntnisse liefern (OLAP). Diese Trennung entstand aufgrund traditioneller Beschränkungen der Infrastruktur, prägte aber auch die Arbeitsweise von Unternehmen.  Sie führte zu doppelt gepflegten Daten, isolierten Teams und langsameren Entscheidungsprozessen. […]

News

Windows 11 im Außendienst: Plattform für stabile Prozesse

Das Betriebssystem Windows 11 bildet im technischen Außendienst die zentrale Arbeitsumgebung für Service, Wartung und Inspektionen. Es verbindet robuste Geräte, klare Abläufe und schnelle Entscheidungswege mit einer einheitlichen Basis für Anwendungen. Sicherheitsfunktionen, Updates und Unternehmensrichtlinien greifen konsistent und schaffen eine vertrauenswürdige Plattform, auf der sowohl Management als auch Nutzer im Feld arbeiten können. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*