Cloud, KI und Automatisierung für die Telekommunikationsbranche: Die Kunst des Möglichen

TK-Unternehmen stehen vor der Herausforderung, ihre Netzwerke effizienter zu betreiben. Ein entscheidender Erfolgsgarant ist dabei das Design und der Aufbau einer intelligenten autonomen Infrastruktur. Sie beinhaltet die Nutzung von Automatisierung und KI sowie eines wirtschaftlichen Hybrid-Cloud-Modells. [...]

Global Telco und Vice President, Telco Partner Ecosystem bei Red Hat (c) Red Hat
Global Telco und Vice President, Telco Partner Ecosystem bei Red Hat (c) Red Hat

Wie in vielen Industrien findet auch in der Telekommunikationsbranche derzeit ein Umdenken in Bezug auf die Cloud-Nutzung statt. Den ursprünglichen Plan, alles in eine Public Cloud zu verlagern, verfolgt heute kaum noch ein Unternehmen. Unterschiedliche Workloads erfordern die Nutzung verschiedener Betriebsumgebungen, um Compliance-, Sicherheits- und ökonomische Anforderungen abzudecken, sodass sich hybride Szenarien als der beste Weg zur Zielerreichung erwiesen haben.

Die gleiche Diskussion wird derzeit bei vielen Service-Providern geführt. Nach einer Phase schneller Cloud-Migrationen haben sie ein differenziertes Verständnis für die Wirtschaftlichkeit ihres Betriebs gewonnen. Dieses Bewusstsein in Verbindung mit sich ändernden gesetzlichen Anforderungen und Geschäftsstrategien führt zu einer häufigen Neubewertung, welche Workloads in welche Cloud verlagert werden sollen. Im Mittelpunkt stehen dabei hybride Cloud-Strategien, die die notwendige Flexibilität bieten, sich an veränderte Vorgaben sowie die finanziellen, betrieblichen und geschäftlichen Ziele anzupassen.

Eine Möglichkeit, die Komplexität einer hybriden Umgebung zu reduzieren, ist die Nutzung einer horizontalen und einheitlichen Plattform, die einen konsistenten Satz an operativen Tools und Sicherheitsfunktionen über mehrere Clouds hinweg bietet. Unternehmen erhalten eine zentrale Kontrolle, indem sie die Skalierung und Verlagerung von Workloads vom Kern zur Edge und zur Public Cloud – und auch zurück – automatisieren. Zudem bestehen so eine maximale Flexibilität und Unabhängigkeit bei der Auswahl aktueller oder zukünftiger Cloud-Optionen.

Die integrierte Automatisierung

Um Clouds mit einer skalierbaren Plattform optimal zu integrieren, sind vor allem zwei Dinge von essenzieller Bedeutung: eine durchgängige Automatisierung und KI.

Die Automatisierung unterstützt in mehrfacher Hinsicht. Sie liefert Datenpunkte von vielen Geräten und Endpunkten im Netzwerk und in der gesamten IT. Diese Daten werden von KI-Anwendungen analysiert, die dann Empfehlungen für Automatisierungstools bereitstellen, um sowohl proaktive als auch reaktive Änderungen vorzunehmen.

KI bietet nicht nur bessere Informationen über die zu automatisierenden Prozesse, sondern kann auch das Schreiben von Softwarebefehlen zur Ausführung der Automatisierung beschleunigen.

Die Bereitstellung von Konnektivitätsdiensten erfolgt heute bei vielen Service-Providern bereits automatisiert, aber die Einbindung der Automatisierung auf der Anwendungsebene ist eine weitere Möglichkeit. Wie bei der hybriden Cloud müssen Service-Provider auch bei der Automatisierung einen ganzheitlichen Ansatz verfolgen – sowohl im Netzwerk und in der Infrastruktur als auch auf der Ebene der Geschäftsanwendungen. Es geht darum, die Automatisierung auf breiterer Ebene auf konsistente, wiederholbare Weise anzuwenden, sei es bei der Bereitstellung der Infrastruktur, der Entwicklung eines Services oder der Extraktion von Daten aus einem System. Die unternehmensweite Automatisierung kann auf einer konsistenten Plattform zentralisiert werden, um isolierte Automatisierungsinseln zu vermeiden und die allgemeine Benutzerfreundlichkeit und Produktivität zu verbessern.

Anwendung von AIOps auf die Infrastruktur

Derzeit beschränkt sich der Einsatz von KI bei Service-Providern noch eher auf Bereiche wie Kundenservice mit Chatbots, Compliance-Checks oder die Erkennung von Malware. In der Infrastruktur-Optimierung steht der KI-Einsatz noch am Anfang. Durch die Weiterentwicklung in der generativen KI und bei Large Language Models (LLMs) wird KI jedoch eine immer wichtigere Rolle spielen. Von besonderer Bedeutung ist hier vor allem auch das Konzept Retrieval-Augmented Generation (RAG), das den LLMs zusätzliche Informationen aus externen Wissensquellen zur Verfügung stellt, etwa aktuelle Echtzeitdaten, kontextuelle, proprietäre oder domänenspezifische Informationen. Dies ermöglicht den Aufbau eines Closed-Loop-Systems, das automatisch Entscheidungen in die Infrastruktur einfließen lässt, sodass diese bei Bedarf dynamisch angepasst werden kann.

Mögliche Anwendungsszenarien betreffen die Überwachung des Datenverkehrs, das Lastmanagement, das Tuning, das Netzwerk-Lebenszyklusmanagement und das Energiemanagement. Mit letzterem können beispielsweise Workloads in kleineren Einheiten zusammengefasst werden, um weniger Energie im Rechenzentrum zu verbrauchen, was zu geringeren Kosten führt. Bislang musste dazu auf jedes System einzeln zugegriffen und ein Scheduler ausgeführt werden, sodass diese möglichen Veränderungen einen transformativen Charakter haben. Im Radio Access Network (RAN) können KI-Modelle für eine dynamischere Steuerung von Frequenzen, Sektoren, Zellen und Basisstationen eingesetzt werden. KI kann auch den Betrieb vereinfachen und optimieren, indem sie eine Ursachenanalyse in Echtzeit ermöglicht, um die Zeit bis zur Fehlerbehebung zu verkürzen oder um mit prädiktiver Analytik Störungen zu verhindern, bevor sie überhaupt auftreten. 

Die sinnvolle Nutzung der Hybrid Cloud

Die zunehmende KI-Nutzung wiederum korrespondiert mit der wachsenden Bedeutung der Cloud. Unternehmen erkennen verstärkt, dass sie lokale, Edge- und Cloud-Ressourcen benötigen, um das Beste aus ihren KI-Projekten herauszuholen. Sie arbeiten daher an der strategischen Integration von Hybrid-Cloud-Lösungen in KI-Initiativen. Der Grund dafür ist die Notwendigkeit, Datensicherheit und -hoheit mit der für leistungsstarke KI-Modelle erforderlichen Rechenleistung zu kombinieren und zugleich die Kosten für das Training von Modellen und die Modellinferenz unter Kontrolle zu halten. Cloud-Services und KI stehen gewissermaßen in einer symbiotischen Beziehung zueinander, wobei erstere als Rückgrat für die kontinuierliche Weiterentwicklung und die breite Einführung von KI dienen. Diese Integration ist entscheidend für die Erschließung neuer Geschäftsmöglichkeiten wie die Nutzung von Enterprise-Edge-Anwendungen und für die Transformation herkömmlicher Geschäftspraktiken.

Letztlich wird eine radikale Neukonzeption der Netzwerke den Service-Providern helfen, Innovationen voranzutreiben und wettbewerbsfähig und zukunftsfähig zu bleiben. Das Ziel ist dabei der Aufbau einer vollständig automatisierten Infrastruktur mit Zero-Touch-Bereitstellung und -Betrieb, mit intelligenter Steuerung von Rechen-, Speicher- und Netzwerkfunktionen und mit der Fähigkeit, sich selbst zu konfigurieren, zu heilen, zu optimieren und weiterzuentwickeln. Dies ist jedoch nicht möglich, indem man einzelne Lösungen nutzt, die unterschiedlich funktionieren, oder indem man Entscheidungen in Silos trifft. Um von der durchgängigen Verbindung von Core, Edge und Cloud profitieren zu können, wird ein einheitliches Fundament aus Betriebsmodell, Automatisierungstechnik und Cloud-Plattform benötigt. Vor allem aber ist ein offenes und kollaboratives Ökosystem für die Entwicklung, das Testen und die Innovation erforderlich, um all diese Teile zusammenzufügen.

*Der Autor Honoré LaBourdette ist Acting Senior Vice President, Global Telco und Vice President und Telco Partner Ecosystem bei Red Hat.


Mehr Artikel

News

Produktionsplanung 2026: Worauf es ankommt

Resilienz gilt als das neue Patentrezept, um aktuelle und kommende Krisen nicht nur zu meistern, sondern sogar gestärkt daraus hervorzugehen. Doch Investitionen in die Krisenprävention können zu Lasten der Effizienz gehen. Ein Dilemma, das sich in den Griff bekommen lässt. […]

Maximilian Schirmer (rechts) übergibt zu Jahresende die Geschäftsführung von tarife.at an Michael Kreil. (c) tarife.at
News

tarife.at ab 2026 mit neuer Geschäftsführung

Beim österreichischen Vergleichsportal tarife.at kommt es mit Jahresbeginn zu einem planmäßigen Führungswechsel. Michael Kreil übernimmt mit 1. Jänner 2026 die Geschäftsführung. Maximilian Schirmer, der das Unternehmen gegründet hat, scheidet per 14. April 2026 aus der Gesellschaft aus. […]

News

Warum Unternehmen ihren Technologie-Stack und ihre Datenarchitektur überdenken sollten

Seit Jahren sehen sich Unternehmen mit einem grundlegenden Datenproblem konfrontiert: Systeme, die alltägliche Anwendungen ausführen (OLTP), und Analysesysteme, die Erkenntnisse liefern (OLAP). Diese Trennung entstand aufgrund traditioneller Beschränkungen der Infrastruktur, prägte aber auch die Arbeitsweise von Unternehmen.  Sie führte zu doppelt gepflegten Daten, isolierten Teams und langsameren Entscheidungsprozessen. […]

News

Windows 11 im Außendienst: Plattform für stabile Prozesse

Das Betriebssystem Windows 11 bildet im technischen Außendienst die zentrale Arbeitsumgebung für Service, Wartung und Inspektionen. Es verbindet robuste Geräte, klare Abläufe und schnelle Entscheidungswege mit einer einheitlichen Basis für Anwendungen. Sicherheitsfunktionen, Updates und Unternehmensrichtlinien greifen konsistent und schaffen eine vertrauenswürdige Plattform, auf der sowohl Management als auch Nutzer im Feld arbeiten können. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*