Cloud, KI und Automatisierung für die Telekommunikationsbranche: Die Kunst des Möglichen

TK-Unternehmen stehen vor der Herausforderung, ihre Netzwerke effizienter zu betreiben. Ein entscheidender Erfolgsgarant ist dabei das Design und der Aufbau einer intelligenten autonomen Infrastruktur. Sie beinhaltet die Nutzung von Automatisierung und KI sowie eines wirtschaftlichen Hybrid-Cloud-Modells. [...]

Global Telco und Vice President, Telco Partner Ecosystem bei Red Hat (c) Red Hat
Global Telco und Vice President, Telco Partner Ecosystem bei Red Hat (c) Red Hat

Wie in vielen Industrien findet auch in der Telekommunikationsbranche derzeit ein Umdenken in Bezug auf die Cloud-Nutzung statt. Den ursprünglichen Plan, alles in eine Public Cloud zu verlagern, verfolgt heute kaum noch ein Unternehmen. Unterschiedliche Workloads erfordern die Nutzung verschiedener Betriebsumgebungen, um Compliance-, Sicherheits- und ökonomische Anforderungen abzudecken, sodass sich hybride Szenarien als der beste Weg zur Zielerreichung erwiesen haben.

Die gleiche Diskussion wird derzeit bei vielen Service-Providern geführt. Nach einer Phase schneller Cloud-Migrationen haben sie ein differenziertes Verständnis für die Wirtschaftlichkeit ihres Betriebs gewonnen. Dieses Bewusstsein in Verbindung mit sich ändernden gesetzlichen Anforderungen und Geschäftsstrategien führt zu einer häufigen Neubewertung, welche Workloads in welche Cloud verlagert werden sollen. Im Mittelpunkt stehen dabei hybride Cloud-Strategien, die die notwendige Flexibilität bieten, sich an veränderte Vorgaben sowie die finanziellen, betrieblichen und geschäftlichen Ziele anzupassen.

Eine Möglichkeit, die Komplexität einer hybriden Umgebung zu reduzieren, ist die Nutzung einer horizontalen und einheitlichen Plattform, die einen konsistenten Satz an operativen Tools und Sicherheitsfunktionen über mehrere Clouds hinweg bietet. Unternehmen erhalten eine zentrale Kontrolle, indem sie die Skalierung und Verlagerung von Workloads vom Kern zur Edge und zur Public Cloud – und auch zurück – automatisieren. Zudem bestehen so eine maximale Flexibilität und Unabhängigkeit bei der Auswahl aktueller oder zukünftiger Cloud-Optionen.

Die integrierte Automatisierung

Um Clouds mit einer skalierbaren Plattform optimal zu integrieren, sind vor allem zwei Dinge von essenzieller Bedeutung: eine durchgängige Automatisierung und KI.

Die Automatisierung unterstützt in mehrfacher Hinsicht. Sie liefert Datenpunkte von vielen Geräten und Endpunkten im Netzwerk und in der gesamten IT. Diese Daten werden von KI-Anwendungen analysiert, die dann Empfehlungen für Automatisierungstools bereitstellen, um sowohl proaktive als auch reaktive Änderungen vorzunehmen.

KI bietet nicht nur bessere Informationen über die zu automatisierenden Prozesse, sondern kann auch das Schreiben von Softwarebefehlen zur Ausführung der Automatisierung beschleunigen.

Die Bereitstellung von Konnektivitätsdiensten erfolgt heute bei vielen Service-Providern bereits automatisiert, aber die Einbindung der Automatisierung auf der Anwendungsebene ist eine weitere Möglichkeit. Wie bei der hybriden Cloud müssen Service-Provider auch bei der Automatisierung einen ganzheitlichen Ansatz verfolgen – sowohl im Netzwerk und in der Infrastruktur als auch auf der Ebene der Geschäftsanwendungen. Es geht darum, die Automatisierung auf breiterer Ebene auf konsistente, wiederholbare Weise anzuwenden, sei es bei der Bereitstellung der Infrastruktur, der Entwicklung eines Services oder der Extraktion von Daten aus einem System. Die unternehmensweite Automatisierung kann auf einer konsistenten Plattform zentralisiert werden, um isolierte Automatisierungsinseln zu vermeiden und die allgemeine Benutzerfreundlichkeit und Produktivität zu verbessern.

Anwendung von AIOps auf die Infrastruktur

Derzeit beschränkt sich der Einsatz von KI bei Service-Providern noch eher auf Bereiche wie Kundenservice mit Chatbots, Compliance-Checks oder die Erkennung von Malware. In der Infrastruktur-Optimierung steht der KI-Einsatz noch am Anfang. Durch die Weiterentwicklung in der generativen KI und bei Large Language Models (LLMs) wird KI jedoch eine immer wichtigere Rolle spielen. Von besonderer Bedeutung ist hier vor allem auch das Konzept Retrieval-Augmented Generation (RAG), das den LLMs zusätzliche Informationen aus externen Wissensquellen zur Verfügung stellt, etwa aktuelle Echtzeitdaten, kontextuelle, proprietäre oder domänenspezifische Informationen. Dies ermöglicht den Aufbau eines Closed-Loop-Systems, das automatisch Entscheidungen in die Infrastruktur einfließen lässt, sodass diese bei Bedarf dynamisch angepasst werden kann.

Mögliche Anwendungsszenarien betreffen die Überwachung des Datenverkehrs, das Lastmanagement, das Tuning, das Netzwerk-Lebenszyklusmanagement und das Energiemanagement. Mit letzterem können beispielsweise Workloads in kleineren Einheiten zusammengefasst werden, um weniger Energie im Rechenzentrum zu verbrauchen, was zu geringeren Kosten führt. Bislang musste dazu auf jedes System einzeln zugegriffen und ein Scheduler ausgeführt werden, sodass diese möglichen Veränderungen einen transformativen Charakter haben. Im Radio Access Network (RAN) können KI-Modelle für eine dynamischere Steuerung von Frequenzen, Sektoren, Zellen und Basisstationen eingesetzt werden. KI kann auch den Betrieb vereinfachen und optimieren, indem sie eine Ursachenanalyse in Echtzeit ermöglicht, um die Zeit bis zur Fehlerbehebung zu verkürzen oder um mit prädiktiver Analytik Störungen zu verhindern, bevor sie überhaupt auftreten. 

Die sinnvolle Nutzung der Hybrid Cloud

Die zunehmende KI-Nutzung wiederum korrespondiert mit der wachsenden Bedeutung der Cloud. Unternehmen erkennen verstärkt, dass sie lokale, Edge- und Cloud-Ressourcen benötigen, um das Beste aus ihren KI-Projekten herauszuholen. Sie arbeiten daher an der strategischen Integration von Hybrid-Cloud-Lösungen in KI-Initiativen. Der Grund dafür ist die Notwendigkeit, Datensicherheit und -hoheit mit der für leistungsstarke KI-Modelle erforderlichen Rechenleistung zu kombinieren und zugleich die Kosten für das Training von Modellen und die Modellinferenz unter Kontrolle zu halten. Cloud-Services und KI stehen gewissermaßen in einer symbiotischen Beziehung zueinander, wobei erstere als Rückgrat für die kontinuierliche Weiterentwicklung und die breite Einführung von KI dienen. Diese Integration ist entscheidend für die Erschließung neuer Geschäftsmöglichkeiten wie die Nutzung von Enterprise-Edge-Anwendungen und für die Transformation herkömmlicher Geschäftspraktiken.

Letztlich wird eine radikale Neukonzeption der Netzwerke den Service-Providern helfen, Innovationen voranzutreiben und wettbewerbsfähig und zukunftsfähig zu bleiben. Das Ziel ist dabei der Aufbau einer vollständig automatisierten Infrastruktur mit Zero-Touch-Bereitstellung und -Betrieb, mit intelligenter Steuerung von Rechen-, Speicher- und Netzwerkfunktionen und mit der Fähigkeit, sich selbst zu konfigurieren, zu heilen, zu optimieren und weiterzuentwickeln. Dies ist jedoch nicht möglich, indem man einzelne Lösungen nutzt, die unterschiedlich funktionieren, oder indem man Entscheidungen in Silos trifft. Um von der durchgängigen Verbindung von Core, Edge und Cloud profitieren zu können, wird ein einheitliches Fundament aus Betriebsmodell, Automatisierungstechnik und Cloud-Plattform benötigt. Vor allem aber ist ein offenes und kollaboratives Ökosystem für die Entwicklung, das Testen und die Innovation erforderlich, um all diese Teile zusammenzufügen.

*Der Autor Honoré LaBourdette ist Acting Senior Vice President, Global Telco und Vice President und Telco Partner Ecosystem bei Red Hat.


Mehr Artikel

Rebeca Delgado, Chief Technology Officer & Principal AI Engineer, Intel Automotive (c) Intel Corporation
Kommentar

Elektromobilität: Erfolgsfaktor Energieeffizienz 

Für Elektroautos gibt es bisher kein standardisiertes Energiemanagement. Dabei könnte ein einheitliches Vorgehen eine der großen Herausforderung der Branche lösen. Wie ein solcher Standard aussehen kann und was dieses Thema mit der Rolle von Frauen in der IT zu tun hat, verrät Rebeca Delgado, Chief Technology Officer & Principal AI Engineer, Intel Automotive, im Gastkommentar. […]

img-8
News

Österreichs Wachstumspotenzial: 18 Prozent mehr Wertschöpfung durch künstliche Intelligenz

Der Einsatz von künstlicher Intelligenz wirkt sich volkswirtschaftlich wie ein arbeitsvermehrender technischer Fortschritt im Ausmaß von 2,24 Milliarden Arbeitsstunden aus, die pro Jahr zusätzlich zur Verfügung stehen würden.
Dieses synthetische, zusätzliche Leistungsvolumen übersetzt sich in eine Steigerung der Wertschöpfung um 18 Prozent in Österreich. Das zusätzliche Leistungsvolumen entspricht der Gesamtleistung in den Bundesländern Wien und Steiermark zusammen. […]

Matthias Nefzger, Business Development Manager MSP DACH bei ESET (c) ESET
Karriere

Matthias Nefzger ist neuer Business Development Manager MSP bei ESET

Der IT-Sicherheitshersteller ESET begrüßt Matthias Nefzger als neuen Business Development Manager MSP DACH. Mit ihm gewinnt das Unternehmen einen Vertriebsprofi mit langjähriger Berufserfahrung in der IT-Branche. Er wird sich künftig explizit um die Weiterentwicklung des MSP-Geschäftes kümmern und direkt an Peter Neumeier, Director of Channel Sales DACH, berichten. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*