KI und ML: Cloud oder On-Premises?

Bei Cloud-Services für KI und Machine Learning müssen Kosten und Governance in Einklang gebracht werden. [...]

„Skill Gap“ kompensieren

Angesichts des Mangels an IT-Fachleuten, vor allem von Data Scientists, ist der einfachere Zugang zu KI- und ­Machine-Learning-Know-how über eine Cloud ein weiterer wichtiger Punkt.

Den Ernst der Lage zeigt ein Blick auf die Lage im DACH-Raum: Die Schweiz rechnet damit, dass im Jahr 2030 an die 40 000 IT-Fachleute fehlen. In Deutschland wiederum waren Ende 2022 nach Angaben des Digitalverbands Bitkom rund 140 000 IT-Stellen unbesetzt, in Österreich fehlen an die 30 000 Spezialisten.

„Ein Vorteil von Cloud-basierten KI-Diensten ist, dass sie dazu beitragen können, den ‘Skill Gap‘, in der KI-Branche zu schließen“, unterstreicht Markus Hacker von Nvidia.

„Viele Unternehmen verfügen möglicherweise nicht über das interne Fachwissen, das für den Aufbau und die Wartung einer KI-Infrastruktur erforderlich ist.“ Nutzer von Cloud-Diensten könnten jedoch vom Fachwissen von Cloud-Anbietern und deren Partnern profitieren, wenn sie KI-Anwendungen entwickeln.

Das reicht jedoch nicht aus, so Hacker. Wichtig sei zudem, dass Unternehmen verstärkt in KI-Ausbildung- und -Training investieren. Nur dann seien Beschäftigte in der Lage, KI-basierte Anwendungen zu nutzen und zu entwickeln.

Mittlerweile bieten die Cloud-Serviceprovider sowie viele ihrer Partner entsprechende Kurse an, AWS beispielsweise über die AWS Academy, Microsoft im Rahmen von „Azure AI Fundamentals“.

Natürlich können auch solche Programme nicht ad hoc den Mangel an KI- und Datenspezialisten beseitigen. Aber letztlich führt für Unternehmen kein Weg daran vorbei, die eigenen Mitarbeiter mithilfe solcher Angebote für das KI-Zeitalter fit zu machen.

Eine Frage der Kosten

In den vergangenen Monaten hat sich die Diskussion über die Kosten von Cloud-Services zugespitzt. So sehen Analysten wie David Linthicum vom Beratungshaus Deloitte wegen der Kosten bei KI- und ML-Workloads einen Trend zur „Repatriierung“ in Unternehmensrechenzentren.

Und laut der Studie „CIO Pulse: 2023 Budgets & Priorities“ des schweizerischen IT-Hauses SoftwareOne sind für 41 Prozent der CIOs Preiserhöhungen der Cloud-Serviceprovider der größte Faktor, der die IT-Ausgaben nach oben treibt – vor zu schnell anwachsenden Workloads und einer verstärkten Nutzung von Cloud-Ressourcen (jeweils 40 %), inklusive KI- und Machine-Learning-Services.

„Wer geglaubt hat, allein aus Kostengründen in die Cloud gehen zu müssen, erlebt oft eine Überraschung“, warnt Florian Maximilian Lauck-Wunderlich von Pegasystems.

Aber: „Das liegt an unrealistischen Erwartungen.“ Die Cloud habe andere, wichtigere Qualitäten, etwa Verfügbarkeit, Skalierbarkeit, On-Demand-Ressourcen, aber auch Sicherheitsaspekte. Hinzu kommt, dass viele Cloud-Nutzer punkto Kosten noch ihre Hausaufgaben zu machen haben. So wollen 95 Prozent der CIOs die Transparenz und Kontrolle von Cloud-Kosten erhöhen. Auch das ist ein Ergebnis der Untersuchung von SoftwareOne.

Der Trend zur Cloud hat auch durch die komplexen Cloud-Service­welten der Hyperscaler zu Wildwuchs und damit zu ‹Cloud Waste› geführt, auch im Bereich KI.

Mark Neufurth – Lead Strategist bei Ionos

Das heißt, es ist ein umfassendes Cloud-Kostenmanagement in Verbindung mit FinOps-Ansätzen erforderlich. Dies sollte allerdings nicht nur bei KI und ­Machine Learning aus der Cloud zum Zuge kommen, sondern bei allen Services, die Unternehmen aus einer Public Cloud beziehen.

Datenstrategie optimieren

Angesichts steigender Egress- und Ingress-Kosten (Datentransfers aus einer und in eine Cloud-Umgebung) ist ein weiterer Faktor wichtig: die Begrenzung der Datenmengen.

«Eine tragfähige cloudbasierte Datenhaltung vermeidet eine redundante Datenhaltung und überflüssige Datentransporte zwischen der eigenen IT-Infrastruktur und der Cloud oder zwischen mehreren Clouds – und damit auch unnötige Kosten», so Gilbert Jacqué von Microsoft.

Allerdings sind auch die Cloud-Serviceprovider gefordert: „Der Trend zur Cloud hat auch durch die komplexen Cloud-Servicewelten der Hyperscaler zu Wildwuchs und damit zu ‘Cloud Waste‘ geführt“, moniert Mark Neufurth von Ionos. „Die Limitierung bei der Nutzung von KI-Services aus der Cloud hängt also auch von der Frage ab, wie transparent ein Cloud-Anbieter strukturiert ist.“

Für viele Unternehmen und Organisationen dürfte es allerdings schwierig sein, aus der breiten Angebotspalette der großen Provider eine optimale Mischung von KI- und Machine-Learning-Services und den zugehörigen Infrastruktur-Komponenten wie Datenbanken, Storage- und Compute-Ressourcen zusammenzustellen. Abhilfe können IT-Dienstleister schaffen – in Form von Beratungsleistungen.

Wer geglaubt hat, allein aus Kosten­gründen in die Cloud gehen zu müssen, erlebt oft eine Überraschung.

Florian Maximilian Lauck-Wunderlich – Senior Project Delivery Leader bei Pegasystems

Kombination mit DevSecOps-Plattformen

Speziell bei Entwicklung unternehmenskritischer KI-Anwendungen sollte der Aspekt Sicherheit nicht zu kurz kommen. Das lässt sich mit DevSecOps-Plattformen erreichen, etwa GitLab.

«Wir erweitern aktiv unsere ModelOps-Funktionen, um die Erfahrung für KI-Entwickler zu verbessern, und bauen Funktionen ein, um Data-Science-Workloads nativ zu unterstützen», erläutert Taylor McCaslin, Group Manager – Product Data Science AI/ML bei GitLab. Dazu zählen die MLFlow-Integration, «sauberere» Python Notebooks und GPU SaaS Runners.

Eine DevSecOps-Plattform fasst die Funktionen zur Entwicklung und Bereitstellung von (KI-)Software in einem einheitlichen Workflow zusammen. Das beschleunigt Entwicklungsprozesse und reduziert das Risiko für Sicherheitslücken. Wichtig ist, dass solche Plattformen auch einen Zugang zu Ressourcen wie Grafikprozessoren bieten. GitLab hat daher eine Partnerschaft mit Oracle geschlossen.

Superrechner im eigenen Haus

Wer dennoch eine KI-Infrastruktur im eigenen Haus einrichten möchte, kann auf schlüsselfertige Lösungen zurückgreifen, beispielsweise die Systeme der DGX-Reihe von Nvidia. Sie sind mit Grafikprozessoren ausgestattet, die für Deep-Learning-Training und Inferencing optimiert wurden. Das hat allerdings seinen Preis: Ein System DGX H100 mit 640 Gigabyte GPU-Speicher wird Unternehmenskunden für mehr als 400 000 Euro angeboten.

Das Machine Learning Development System von HPE, das unter anderem auch der deutsche KI-Spezialist Aleph Alpha nutzt, dürfte sich mindestens in derselben Kategorie bewegen. Intels Sparte Habana Labs wiederum hat mit Gaudi2 und Gaudi3 Alternativen zu den Prozessoren von Nvidia entwickelt.

Entsprechende Systeme sind unter anderem von Supermicro erhältlich. Intels Hauptkonkurrent AMD kündigte Anfang 2023 an, KI-Funktionen in seine GPUs, CPUs, applikationsspezifischen Chips (ASICS) und FPGAs (Field-Programmable Gate Arrays) zu integrieren. Mit AMD Vitis AI Integrated Development Environment hat AMD außerdem eine Inference-Entwicklungslösung für AMD-Hardware vorgestellt.

KI-Supercomputer – via Cloud

Doch Investitionen in hauseigene Server mit KI-Hardware wollen gut überlegt sein, selbst aus Sicht der Anbieter: „Die Einrichtung einer KI-Infrastruktur vor Ort kann komplex sein und erhebliche Investitionen in Hard- und Software sowie Personal erfordern“, gibt Markus ­Hacker von Nvidia zu bedenken. „Zudem kann es schwieriger sein, mit dem hohen Tempo der KI-Innovationen Schritt zu halten.“

Vortrainierte Dienste wie der Azure OpenAI Service stehen Unternehmen jeder Größe und aus allen Branchen über die Cloud zur Verfügung. Dies ermöglicht im Grunde eine Demokratisierung von KI.

Gilbert Jacqué – Azure Solutions Go-To-Market Lead bei Microsoft Deutschland

Interessant ist die Lösung, die Nvidia parat hat: den DGX Cloud Service. Er ermöglicht es Entwicklern, über ein Web-Frontend auf einen „KI-Supercomputer in der Cloud“ zuzugreifen. Sie haben dadurch unter anderem die Möglichkeit, generative AI-Anwendungen zu erstellen, ähnlich wie ChatGPT.

Zunächst steht der Service über die Oracle Cloud Infrastructure (OCI) zur Verfügung. Microsoft Azure soll noch 2023 folgen.

KI-Services „Made in Europe“

Für Unternehmen, die nicht auf die KI-Cloud-Services der großen Provider zurückgreifen möchten oder dürfen, gibt es Alternativen von europäischen Anbietern.

Für Unternehmen, die sich nicht an die US-amerikanischen Hyperscaler binden wollen oder können, seien KI-Lösungen deutscher oder europäischer Unternehmen eine Option, so Mark Neufurth, Lead Strategist beim Cloud-Serviceprovider Ionos: „In Europa gibt es Unternehmen wie Aleph Alpha, Deepl und AX Semantics, die KI mit ausgefeilten Lösungen bedienen.“ Nicht alle dieser Lösungen, aber die meisten, seien auch über die Cloud verfügbar.

Aleph Alpha aus Heidelberg hat beispielsweise mit Luminous ein Sprachmodell entwickelt, das ähnliche Funktionen bietet wie das von OpenAI (ChatGPT), etwa Fragen von Usern zu beantworten und Texte zu erstellen. Im Unterschied zu anderen Ansätzen macht Luminous transparent, woher es seine Informationen bezieht.

Dies ist für Anwendungsbereiche mit hohen regulatorischen Hürden wichtig, etwa den Finanzsektor oder das Gesundheitswesen. Mittlerweile arbeitet Aleph Alpha mit dem IT-Dienstleister Adesso zusammen, und SAP hat sich eine Beteiligung an dem Unternehmen gesichert.

AX Semantics (Stuttgart) hat sich auf das KI-gestützte, automatisierte Erstellen und Analysieren von Texten fokussiert. Unterstützt werden über 110 Sprachen. Auch das Kölner Unternehmen Deepl konzentriert sich auf die maschinelle, KI-basierte Übersetzung von Texten.

Deepl führt an, dass seine Übersetzungen um ein Mehrfaches präziser seien als die vergleichbaren Services von Google und Microsoft.

Zu den Providern mit KI-Services und mit Sitz in Europa zählen neben Ionos beispielsweise OVHcloud (Frankreich) und die Deutsche Telekom (Deutschland).

„Außerdem baut Nextcloud ethische, vertrauenswürdige KI-Angebote in seine Lösungen ein“, so Neufurth. Mit Nextcloud könnten Unternehmen eine eigene Cloud-Umgebung einrichten, inklusive Collaboration-Funktionen. Version 26 der Software, die im April 2023 veröffentlicht wurde, unterstützt zudem ChatGPT.


Mehr Artikel

Die Teilnehmer des Roundtables (v.l.n.r.): Roswitha Bachbauer (CANCOM Austria), Thomas Boll (Boll Engineering AG), Manfred Weiss (ITWelt.at) und Udo Schneider (Trend Micro). (c) timeline/Rudi Handl
News

Security in der NIS2-Ära

NIS2 ist mehr ein organisatorisches Thema als ein technisches. Und: Von der Richtlinie sind via Lieferketten wesentlich mehr Unternehmen betroffen als ursprünglich geplant, womit das Sicherheitsniveau auf breiter Basis gehoben wird. Beim ITWelt.at Roundtable diskutierten drei IT-Experten und -Expertinnen über die Herausforderungen und Chancen von NIS2. […]

Christoph Mutz, Senior Product Marketing Manager, AME, Western Digital (c) AME Western Digital
Interview

Speicherlösungen für Autos von morgen

Autos sind fahrende Computer. Sie werden immer intelligenter und generieren dabei jede Menge Daten. Damit gewinnen auch hochwertige Speicherlösungen im Fahrzeug an Bedeutung. Christoph Mutz von Western Digital verrät im Interview, welche Speicherherausforderungen auf Autohersteller und -zulieferer zukommen. […]

Andreas Schoder ist Leiter Cloud & Managend Services bei next layer, Alexandros Osyos ist Senior Produkt Manager bei next layer. (c) next layer
Interview

Fokus auf österreichische Kunden

Der österreichische Backup-Experte next layer bietet umfassendes Cloud-Backup in seinen Wiener Rechenzentren. Im Interview mit ITWelt.at erläutern Andreas Schoder, Leiter Cloud & Managed Services, und Alexandros Osyos, Senior Produkt Manager, worauf Unternehmen beim Backup achten müssen und welche Produkte und Dienstleistungen next layer bietet. […]

Miro Mitrovic ist Area Vice President für die DACH-Region bei Proofpoint.(c) Proofpoint
Kommentar

Die Achillesferse der Cybersicherheit

Eine immer größere Abhängigkeit von Cloud-Technologien, eine massenhaft mobil arbeitende Belegschaft und große Mengen von Cyberangreifern mit KI-Technologien haben im abgelaufenen Jahr einen wahrhaften Sturm aufziehen lassen, dem sich CISOS ausgesetzt sehen. Eine große Schwachstelle ist dabei der Mensch, meint Miro Mitrovic, Area Vice President DACH bei Proofpoint. […]

Alexander Graf ist Geschäftsführer der Antares-NetlogiX Netzwerkberatung GmbH. (c) Antares-NetlogiX Netzwerkberatung GmbH
Interview

Absicherung kritischer Infrastrukturen

NIS2 steht vor der Tür – höchste Zeit, entsprechende Maßnahmen auch im Bereich der Operational Technology (OT) zu ergreifen. »Wenn man OT SIEM richtig nutzt, sichert es kritische Infrastrukturen verlässlich ab«, sagt Alexander Graf, Experte für OT-Security (COSP) und Geschäftsführer der Antares-NetlogiX Netzwerkberatung GmbH, im ITWelt.at-Interview. […]

Brian Wrozek, Principal Analyst bei Forrester (c) Forrester
Interview

Cybersicherheit in der Ära von KI und Cloud

Die Bedrohungslandschaft im Bereich der Cybersicherheit hat sich zu einer unbeständigen Mischung von Bedrohungen entwickelt, die durch zunehmende Unsicherheit und steigende Komplexität bedingt ist. Zu diesem Schluss kommt der Report »Top Cyber-security Threats In 2024« von Forrester. ITWelt.at hat dazu mit Studienautor Brian Wrozek ein Interview geführt. […]

In Österreich gibt es die freie Wahl des Endgeräts. Oder doch nicht? (c) Pexels
News

RTR erklärt Wahlfreiheit zum Nischenthema

Bei der Frage, ob Endkunden oder die Provider darüber entscheiden sollten, welches Endgerät sie an ihrem Breitbandanschluss nutzen können, stellt sich die RTR klar auf eine Seite. Laut RTR existiert bereits Wahlfreiheit. Dennoch will die Regulierungsbehörde aktiv werden, wenn sich noch mehr Kunden über das Fehlen der Wahlfreiheit bei ihr beschweren. Logik geht anders. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*