Ein Turbo für das Machine Learning – MLOps

MLOps überträgt DevOps-Prinzipien aufs Machine Learning. Das fördert die Zusammenarbeit und beschleunigt Projekte. [...]

„Häufig fehlt es an klar definierten Geschäftszielen“

Machine-Learning-Projekte zum Erfolg zu führen, ist keine triviale Aufgabe. MLOps kann dazu einen wichtigen Beitrag leisten. Srikumar Rama­nathan, Chief Solutions Officer bei Mphasis, erläutert, worauf Unternehmen dabei achten sollten.

com! professional: Herr Rama­nathan, vor einigen Jahren hat Gartner den Anteil der KI- und Machine-Learning-Projekte, die im Sande verlaufen, auf 85 Prozent geschätzt. Welche Erfahrungen hat Mphasis gemacht?

Srikumar Ramanathan: Unserer Erfahrung bei Mphasis nach enden knapp 30 Prozent der Projekte nicht produktiv. Dafür gibt es eine Reihe von Gründen. Häufig scheitern ML-Projekte, weil es keine klar definierten Key Performance Indicators (KPIs) und Geschäftsziele gibt.

Machine Learning wird dann in Bereichen eingesetzt, in denen ein regelbasierter, heuristischer Ansatz genauso gut funktioniert hätte. Wenn man zu Beginn nicht weiß, was man mit ML eigentlich bezwecken möchte, ändern sich zudem die Anforderungen laufend und der Umfang von Projekten ufert aus.

com! professional: Oft ist zu hören, dass Unternehmen Probleme haben, KI und ML in vorhandene Abläufe zu integrieren. Stimmt das?

Ramanathan: Das trifft zu. Manchmal liegt das schlichtweg am Design, weil zunächst nur ein Experiment und gar kein Produktiveinsatz geplant war. Außerdem führen häufig schlechte Datenverfügbarkeit oder mangelnder Datenzugriff zu Verzögerungen.

Eine besondere Herausforderung ist darüber hinaus die Zusammenarbeit zwischen den verschiedenen Gruppen. Denn um ML-Projekte zum Erfolg zu führen, müssen Data Engineers, Data Scientists, ML-Ingenieure und IT Operations eng zusammenarbeiten. Hier fehlen häufig geeignete Tools, Sichtbarkeit und klar definierte Verantwortlichkeiten.

com! professional: Wie kann ML­Ops zum Erfolg von Machine-Learning-Projekten beitragen?

Ramanathan: MLOps umfasst Best Practices sowie Tools und Plattformen, um die genannten Heraus­forderungen zu bewältigen. Das Konzept verbessert die Zusammenarbeit zwischen Data-Science-, Entwicklungs- und Bereitstellungs-Teams und bringt Kontrolle über Daten, Code, Algorithmen und Modelle.

Außerdem macht MLOps Modelle und die Modell-Performance interpretierbar und erleichtert die Qualitätssicherung durch ein Debugging.

com! professional: Welche Qualitätsprobleme können denn auftreten?

Ramanathan: Ein Faktor ist beispielsweise die Drift Detection. Experten müssen erkennen, ob ein produktives Modell vom Trainingsmodell abweicht, etwa weil sich Datenprofile verändert haben.

MLOps unterstützt zudem die kontinuierliche Integration und die Implementierung von Modellen in die Software-Entwicklungs- und Bereitstellungsumgebung. Dabei kommen automatisierte Pipelines und Feedback-Schleifen zum Einsatz.

„MLOps verbessert die Zusammenarbeit zwischen Data-Science-, Entwicklungs- und Bereitstellungs-Teams.“

Srikumar Ramanathan – Chief Solutions Officer bei Mphasis

com! professional: Wie attraktiv sind vor diesem Hintergrund die KI- und Machine-Learning-Services von großen Cloud-Providern? Diese schließen ja meist MLOps- und AIOps-Angebote mit ein.

Ramanathan: Es gibt einige Vorteile, die für solche Angebote sprechen. Vor allem vereinfachen sie die Bereitstellung und Nutzung der Infrastruktur sowie Prozesse. Alle ML-Systeme erfordern jedoch eine gute Dateninfrastruktur.

Wenn sich die Daten bereits in der Cloud befinden, ist es daher bequemer, Machine Learning in derselben Cloud auszuführen. Auch die Integration in Unternehmenssysteme sowie die Bereitstellung, Überwachung und Verwaltung von Modellen in der Produktion ist einfacher. Denn die Plattformen nutzen Best Practices aus DevOps und MLOps für die Orchestrierung von ML-Workflows und Pipelines.

Außerdem bieten sie Zugang zu vortrainierten Modellen. Nicht zuletzt profitieren Unternehmen bei den Angeboten der Cloud-Provider von Pay-as-you-go-Modellen.

com! professional: Mphasis hat mit Pace-ML ein MLOps-Framework entwickelt. Welche Vorteile bringen solche integrierten Lösungen für ML-Projekte?

Ramanathan: Nutzer können ML-Modelle schneller in den Produktivbetrieb überführen, Pipelines in Data-Science-Projekten automatisieren und dadurch KI-Produkte und -Services schneller auf den Markt bringen. Außerdem werden KI-Systeme transparenter und kontrollierbarer.

Das reduziert Risiken und erhöht die Nutzerakzeptanz. Außerdem vereinfacht ein Framework das Management der ML-Modelle und die Governance.

Da sich Modell-Deployment-Pipelines und das Monitoring auf einer einzigen Plattform befinden, haben Nutzer zudem die Möglichkeit, Versionskontrollen zu etablieren und bereitgestellte Modelle besser zu warten.


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*