Machine Learning Operations – MLOps optimal nutzen

Unternehmen, die die Vorteile der künstlichen Intelligenz voll ausschöpfen wollen, wenden sich an MLOps - eine neue Reihe von Best Practices und Tools, die auf die Operationalisierung von KI abzielen. [...]

Foto: pixabay.com

Wenn Unternehmen mit dem Einsatz künstlicher Intelligenz und dem Aufbau von Projekten zum maschinellen Lernen beginnen, liegt der Schwerpunkt in der Regel auf der Theorie. Gibt es ein Modell, das die erforderlichen Ergebnisse liefern kann? Wie kann es erstellt werden? Wie kann es trainiert werden?

Aber die Tools, die Datenwissenschaftler zur Erstellung dieser Konzeptnachweise verwenden, lassen sich oft nicht gut in Produktionssysteme übertragen. Infolgedessen kann es nach Angaben von IDC im Durchschnitt mehr als neun Monate dauern, bis eine KI- oder ML-Lösung bereitgestellt wird.

„Wir nennen das ‚Modellgeschwindigkeit‘, also die Zeit, die von Anfang bis Ende vergeht“, sagt IDC-Analyst Sriram Subramanian.

An dieser Stelle kommt MLOps ins Spiel. MLOps – Machine Learning Operations – ist eine Reihe von Best Practices, Frameworks und Tools, die Unternehmen bei der Verwaltung von Daten, Modellen, der Bereitstellung, Überwachung und anderen Aspekten eines theoretischen Proof-of-Concept-KI-Systems und dessen Einsatz unterstützen.

„MLOps verkürzt die Modellgeschwindigkeit auf Wochen – manchmal sogar auf Tage“, sagt Subramanian. “ Genauso wie die durchschnittliche Zeit zur Erstellung einer Anwendung mit DevOps beschleunigt wird, ist dies der Grund, warum Sie MLOps brauchen.“

Durch die Einführung von MLOps können Unternehmen seiner Meinung nach mehr Modelle erstellen, schneller innovieren und mehr Anwendungsfälle abdecken. „Das Nutzenversprechen ist eindeutig“, sagt er.

IDC prognostiziert [engl.], dass bis 2024 60 % der Unternehmen ihre ML-Workflows durch den Einsatz von MLOps operationalisiert haben werden. Und als Unternehmen zu den Herausforderungen bei der Einführung von KI und ML befragt wurden, war das Fehlen von MLOps ein Haupthindernis für die Einführung von KI und ML, gleich nach den Kosten, so Subramanian.

Im Folgenden untersuchen wir, was MLOPs ist, wie sich MLOPs entwickelt hat und was Unternehmen erreichen und beachten müssen, um das Beste aus dieser aufkommenden Methode zur Operationalisierung von KI zu machen.

Die Entwicklung von MLOps

Als Eugenio Zuccarelli vor einigen Jahren mit der Entwicklung von Projekten zum maschinellen Lernen begann, war MLOps lediglich eine Sammlung von Best Practices. Seitdem hat Zuccarelli bei mehreren Unternehmen an KI-Projekten gearbeitet, unter anderem im Gesundheitswesen und bei Finanzdienstleistern, und er hat gesehen, wie sich MLOps im Laufe der Zeit weiterentwickelt hat und Tools und Plattformen umfasst.

Heute bietet MLOps einen ziemlich robusten Rahmen für die Operationalisierung von KI, sagt Zuccarelli, der jetzt als Innovation Data Scientist bei CVS Health tätig ist. Als Beispiel verweist Zuccarelli auf ein Projekt, an dem er früher gearbeitet hat, um eine App zu entwickeln, die unerwünschte Ergebnisse wie Krankenhausrückkehr oder Krankheitsverlauf vorhersagen sollte.

„Wir untersuchten Datensätze und Modelle und sprachen mit Ärzten, um die Merkmale der besten Modelle herauszufinden“, sagt er. „Aber um diese Modelle wirklich nützlich zu machen, mussten wir sie den tatsächlichen Nutzern zugänglich machen.

Das bedeutete die Entwicklung einer zuverlässigen, schnellen und stabilen mobilen App mit einem maschinellen Lernsystem im Hintergrund, das über eine API verbunden ist. „Ohne MLOps wären wir nicht in der Lage gewesen, das zu gewährleisten“, sagt er.

Sein Team nutzte die H2O MLOps-Plattform und andere Tools, um ein Health Dashboard für das Modell zu erstellen. „Man will nicht, dass sich das Modell wesentlich verändert“, sagt er. „Und man möchte keine Verzerrungen einführen. Mit dem Health Dashboard können wir erkennen, ob sich das System verändert hat.

Die Verwendung einer MLOps-Plattform ermöglichte auch Aktualisierungen der Produktionssysteme. „Es ist sehr schwierig, eine Datei auszutauschen, ohne dass die Anwendung nicht mehr funktioniert“, sagt Zuccarelli. „Mit MLOps-Tools kann ein System ausgetauscht werden, obwohl es sich in Produktion befindet, und zwar mit minimaler Beeinträchtigung des Systems selbst.“

Wenn MLOps-Plattformen ausgereift sind, beschleunigen sie den gesamten Modellentwicklungsprozess, weil die Unternehmen nicht bei jedem Projekt das Rad neu erfinden müssen, sagt er. Und auch die Funktionen zur Verwaltung der Datenpipeline sind für die Operationalisierung von KI entscheidend.

„Wenn wir mehrere Datenquellen haben, die miteinander kommunizieren müssen, kommt MLOps ins Spiel“, sagt er. „Sie wollen, dass alle Daten, die in die ML-Modelle fließen, konsistent und von hoher Qualität sind. Wie man so schön sagt: Garbage in, garbage out. Wenn das Modell über schlechte Informationen verfügt, wird auch die Vorhersage schlecht sein.

MLOps-Grundlagen: Ein sich veränderndes Ziel

Aber denken Sie nicht, dass Sie die Kernprinzipien von MLOps ignorieren können, nur weil Plattformen und Tools verfügbar werden. Unternehmen, die gerade erst beginnen, sich dieser Disziplin zuzuwenden, sollten bedenken, dass es bei MLOps im Kern darum geht, starke Verbindungen zwischen Data Science und Data Engineering zu schaffen.

„Um den Erfolg eines MLOps-Projekts zu gewährleisten, müssen sowohl Data Engineers als auch Data Scientists im selben Team arbeiten“, sagt Zuccarelli.

Darüber hinaus sind die Tools, die zum Schutz vor Voreingenommenheit, zur Gewährleistung von Transparenz und Erklärbarkeit sowie zur Unterstützung von Ethikplattformen erforderlich sind, noch im Aufbau begriffen, sagt er. „Es ist definitiv noch viel Arbeit nötig, weil es ein so neues Gebiet ist.

Ohne eine schlüsselfertige Komplettlösung müssen Unternehmen also alle Facetten beherrschen, die MLOps bei der Operationalisierung von KI so effektiv machen. Und das bedeutet, dass man Fachwissen in einem breiten Spektrum von Aktivitäten entwickeln muss, sagt Meagan Gentry, National Practice Manager für das KI-Team bei Insight, einem Technologieberatungsunternehmen mit Sitz in Tempe.

MLOps umfasst die gesamte Bandbreite von der Datenerfassung, -überprüfung und -analyse bis hin zur Verwaltung von Maschinenressourcen und der Verfolgung der Modellleistung. Und die Tools, die Unternehmen zur Verfügung stehen, können vor Ort, in der Cloud oder Edge implementiert werden. Sie können Open Source oder proprietär sein.

Doch die Beherrschung der technischen Aspekte ist nur ein Teil der Gleichung.

MLOps lehnt sich auch an die agile Methodik von DevOps und das Prinzip der iterativen Entwicklung an, sagt Gentry. Darüber hinaus ist, wie bei jeder agilen Disziplin, die Kommunikation entscheidend.

„Die Kommunikation in jeder Rolle ist entscheidend“, sagt sie. „Die Kommunikation zwischen dem Data Scientist und dem Data Engineer. Die Kommunikation mit DevOps und mit dem gesamten IT-Team.“

Für Unternehmen, die gerade erst anfangen, kann MLOps verwirrend sein. Es gibt allgemeine Grundsätze, Dutzende von Anbietern und dazu noch eine Vielzahl von Open-Source-Tools.

„Genau hier liegen die Fallstricke“, sagt Helen Ristov, Senior Manager of Enterprise Architecture bei Capgemini Americas. „Vieles davon befindet sich in der Entwicklung. Es gibt keine formellen Richtlinien, wie man sie bei DevOps sieht. Es handelt sich um eine neu entstehende Technologie, und es dauert seine Zeit, bis sich Richtlinien und Grundsätze durchsetzen.“

Ristov empfiehlt, dass Unternehmen ihre MLOps-Reise mit ihren Datenplattformen beginnen. „Vielleicht haben sie Datensätze, die sich an verschiedenen Orten befinden, aber sie haben keine einheitliche Arbeitsumgebung“, sagt sie.

Unternehmen müssen nicht alle Daten auf eine einzige Plattform verlagern, aber es muss eine Möglichkeit geben, Daten aus unterschiedlichen Datenquellen zusammenzuführen, sagt sie, und das kann je nach Anwendung variieren. Data Lakes eignen sich gut für Unternehmen, die viele Analysen mit hoher Frequenz durchführen und beispielsweise eine kostengünstige Speicherlösung suchen.

MLOps-Plattformen verfügen in der Regel über Tools zum Erstellen und Verwalten von Datenpipelines und zum Nachverfolgen verschiedener Versionen von Trainingsdaten, aber das ist nicht auf Anhieb möglich, sagt sie.

Hinzu kommen die Modellerstellung, die Versionierung, die Protokollierung, das Abwägen von Merkmalen und andere Aspekte der Verwaltung der Modelle selbst.

„Es gibt eine beträchtliche Menge an Programmierarbeit“, sagt Ristov und fügt hinzu, dass die Einrichtung einer MLOps-Plattform Monate dauern kann und dass die Plattformanbieter noch viel Arbeit vor sich haben, wenn es um die Integration geht.

„Es gibt so viele Entwicklungen, die in verschiedene Richtungen gehen“, sagt sie. „Es gibt viele Tools, die entwickelt werden, und das Ökosystem ist sehr groß, und die Leute suchen sich einfach aus, was sie brauchen. MLOps befindet sich noch im Anfangsstadium. Die meisten Unternehmen sind noch dabei, die optimalen Konfigurationen zu finden.

Überblick über die MLOps-Landschaft

Laut Subramanian von IDC wird der MLOps-Markt bis 2025 auf etwa 700 Millionen US-Dollar anwachsen [engl.], gegenüber 185 Millionen US-Dollar im Jahr 2020. Dies sei jedoch wahrscheinlich eine erhebliche Unterschätzung, da MLOps-Produkte oft mit größeren Plattformen gebündelt werden. Die wahre Größe des Marktes, so Subramanian, könnte bis 2025 mehr als 2 Milliarden US-Dollar betragen.

MLOps-Anbieter lassen sich in der Regel in drei Kategorien einteilen, angefangen bei den großen Cloud-Anbietern wie AWS, Azure und Google Cloud, die MLOps-Funktionen als Service anbieten, so Subramanian.

Dann gibt es ML-Plattform-Anbieter wie DataRobot, Dataiku und Iguazio.

„Die dritte Kategorie ist das, was man früher Datenmanagement-Anbieter nannte“, sagt er. „Das sind Anbieter wie Cloudera, SAS und DataBricks. Ihre Stärke waren Datenmanagement-Fähigkeiten und Datenoperationen, und sie expandierten in ML-Fähigkeiten und schließlich in MLOps-Fähigkeiten.“

Alle drei Bereiche explodieren, sagt Subramanian, und fügt hinzu, dass sich ein MLOps-Anbieter dadurch auszeichnet, dass er sowohl On-Prem- als auch Cloud-Bereitstellungsmodelle unterstützen kann, dass er vertrauenswürdige und verantwortungsvolle KI implementieren kann, dass er Plug-and-Play-fähig ist und wie einfach er skalieren kann. „Das ist der Punkt, an dem die Differenzierung einsetzt“, sagt er.

Laut einer kürzlich durchgeführten IDC-Umfrage war das Fehlen von Methoden zur Implementierung verantwortungsvoller KI eines der drei größten Hindernisse für die Einführung von KI und ML, gleichauf mit dem Fehlen von MLOps selbst an zweiter Stelle.

Das liegt zum großen Teil daran, dass es keine Alternativen zur Einführung von MLOps gibt, sagt Sumit Agarwal, AI and Machine Learning Research Analyst bei Gartner.

„Die anderen Ansätze sind manuell“, sagt er. „Es gibt also wirklich keine andere Möglichkeit. Wenn Sie skalieren wollen, müssen Sie automatisieren. Sie brauchen Nachvollziehbarkeit von Code, Daten und Modellen.

Laut einer kürzlich durchgeführten Gartner-Umfrage ist die durchschnittliche Zeit, die benötigt wird, um ein Modell vom Proof of Concept zur Produktion zu bringen, von neun auf 7,3 Monate gesunken. „Aber 7,3 Monate sind immer noch sehr lang“, sagt Agarwal. „Es gibt eine Menge Möglichkeiten für Unternehmen, die Vorteile von MLOps zu nutzen.

Der kulturelle Wandel zu MLOps

MLOps erfordert auch einen kulturellen Wandel auf Seiten des KI-Teams eines Unternehmens, sagt Amaresh Tripathy, Global Leader of Analytics bei Genpact.

„Das gängige Bild eines Datenwissenschaftlers ist das eines verrückten Wissenschaftlers, der versucht, eine Nadel in einem Heuhaufen zu finden“, sagt er. „Der Datenwissenschaftler ist ein Entdecker und Forscher – und kein Fabrikarbeiter, der Widgets herstellt. Aber genau das ist es, was man tun muss, um es tatsächlich zu skalieren“.

Und Unternehmen unterschätzen oft den Aufwand, den sie dafür betreiben müssen, sagt er.

„Die Menschen haben ein besseres Verständnis für Softwaretechnik“, sagt er. „Es gibt eine Menge Disziplin in Bezug auf Benutzererfahrung und Anforderungen. Aber irgendwie denken die Leute nicht, dass ich, wenn ich ein Modell einsetze, den gleichen Prozess durchlaufen muss. Außerdem wird fälschlicherweise angenommen, dass alle Data Scientists, die sich in einer Testumgebung auskennen, ganz selbstverständlich in der Lage sind, das Modell zu implementieren, oder dass sie ein paar IT-Kollegen hinzuziehen können, die das dann auch können. Es fehlt die Wertschätzung für das, was dazu nötig ist.“

Die Unternehmen verstehen auch nicht, dass MLOps Auswirkungen auf andere Teile des Unternehmens haben können, was oft zu dramatischen Veränderungen führt.

„Man kann MLOps in einem Callcenter einsetzen und die durchschnittliche Antwortzeit wird sich tatsächlich erhöhen, weil die einfachen Dinge von der Maschine, der KI, erledigt werden und die Dinge, die an den Menschen gehen, tatsächlich länger dauern, weil sie komplexer sind“, sagt er. „Man muss also überdenken, wie die Arbeit aussehen wird, welche Mitarbeiter man braucht und welche Fähigkeiten sie haben sollten.“

Heute, so sagt er, werden weniger als 5 % der Entscheidungen in einem Unternehmen durch Algorithmen gesteuert, aber das ändert sich schnell. „Wir gehen davon aus, dass in den nächsten fünf Jahren 20 bis 25 % der Entscheidungen durch Algorithmen gesteuert werden. Jede Statistik, die wir uns ansehen, zeigt, dass wir uns an einem Wendepunkt befinden, an dem die KI schnell zunimmt.“

Und MLOps ist der entscheidende Faktor, sagt er.

„Hundertprozentig“, betont er. „Ohne sie wird man nicht in der Lage sein, KI konsistent einzusetzen. MLOps ist der Skalierungskatalysator für KI im Unternehmen.“

*Maria Korolov berichtet seit 20 Jahren über neue Technologien und aufstrebende Märkte.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*