Vier Prinzipien des intelligenten Data Mesh auf dem Weg hin zu Industrie 4.0

Künstliche Intelligenz (KI) und maschinelles Lernen (ML) sind für Fabriken von erheblichem Nutzen. Es gibt jedoch nach wie vor Herausforderungen. Diese liegen normalerweise nicht in der Datenwissenschaft – denn der Code funktioniert in der Regel gut. [...]

Soufiane Ameziane, Area Vice President Germany bei Teradata (Quelle: Teradata)

Bei der Umsetzung von KI/ML-Projekten in großem Maßstab liegen die Herausforderungen vorwiegend in der Architektur und Datenverwaltung. Hersteller müssen einen effizienten und kostengünstigen Weg finden, um Daten zu sammeln, zu verstehen, zu nutzen und dann über mehrere Projekte hinweg wiederzuverwenden.

Soufiane Ameziane, Area Vice President Germany bei Teradata, stellt vier Prinzipien vor, wie Unternehmen ihre IT-Architektur durch intelligentes Data Mesh ausbauen können, um Industrie 4.0-Projekte erfolgreich umsetzen können.

Pilotprojekte scheitern oft anfangs an Skalierungsproblemen und Herausforderungen bezüglich der Anwendungsfälle. Unternehmen nutzen veraltete Architekturen für Industrie-4.0-Lösungen, was zu isolierten Anwendungen und hohen Kosten führt. Dadurch bleiben erfolgreiche Projekte selten, und zusätzliche Anwendungsfälle sind oft nicht machbar aufgrund begrenzter Budgets.

Bei Projekten in der Praxis ist eine effiziente Nutzung von Daten und Data-Science-Fähigkeiten entscheidend. Sensordaten von Maschinen können zum Beispiel für verschiedene Zwecke genutzt werden, erfordern aber spezifisches Fachwissen. Daher ist es effizienter, Daten einmalig für alle Anwendungsfälle zu sammeln, aufzubereiten und zu nutzen.

Hier kommen die vier Grundsätze des intelligenten Data Mesh ins Spiel. Sie tragen dazu bei, begrenzte Ressourcen besser zu nutzen, zum Beispiel durch einen Mehrzweckansatz für die Datenbereinigung.

1. Datenverantwortlichkeit je nach Domäne

Wenn die Verantwortlichkeit für Daten je nach Domäne an die jeweiligen Experten verteilt wird, stellt man sicher, dass die Personen, welche kontextbezogene Daten wirklich verstehen, auch die Verantwortung für die Aufbereitung dieser Daten für verschiedene Anwendungsfälle tragen.

Da OT und IT in einem Fertigungsunternehmen traditionell getrennt sind, sollte sich das Prinzip der Verantwortlichkeit relativ leicht umsetzen lassen.

2. Daten wie Produkte behandeln

Zweitens müssen Daten wie Produkte behandelt werden. Bei Datenprodukten kann es sich um einfache Datensätze handeln, die für Analysezwecke aufbereitet werden, oder um komplexere Produkte wie beispielsweise Ergebnisse von ML-Routinen. 

Diese beiden Grundsätze erfordern keine spezielle Technologie, sondern sind in erster Linie organisatorischer Art. Unterschiedliche Gruppen müssen die Verantwortung für einen bestimmten Datensatz übernehmen und sicherstellen, dass letzterer allen autorisierten Benutzern zur Verfügung steht. So senken Unternehmen zusätzlich Kosten und erhöhen die Sicherheit, da Datenbewegungen und Redundanzen reduziert werden.

3. Self-Serve Dateninfrastruktur

Drittens muss eine Self-Service-Dateninfrastruktur als Plattform implementiert werden. Dies ist von entscheidender Bedeutung, damit eine Vielzahl von Teams auf der Arbeit anderer aufbauen, eigene Erkenntnisse aus Daten gewinnen und zusätzliche Datenprodukte erstellen kann.  

4. Federal Computational Governance 

Und letztendlich erfordert die auf mehrere Bereiche verteilte computergestützte Verantwortlichkeit, eine Mischung aus Netzwerk-orientierter Governance-Praxis und der Möglichkeit, einige Aufgaben wie die Schema- oder Lineage-Erstellung zu automatisieren.

Die letzten beiden Prinzipien setzen einige technische Fähigkeiten oder Tools voraus. Unternehmen brauchen deshalb verlässliche Anwendungen und Plattformen, um Daten zu finden, zu verstehen, zu nutzen und wiederzuverwenden – unabhängig davon, wo sie gespeichert sind.  

So können sie auch die Struktur eines Data Mesh problemlos implementieren. Anstatt Daten zu hohen Kosten zu verschieben, kann so ein offenes Datenökosystem implementiert und die Daten mit Analysen versehen werden.

Dieses offene Ökosystem wird den Herstellern auch dabei helfen, bei ihren Industrie-4.0-Analyseprojekten das Ideal von „gut, schnell und günstig“ zu erreichen:

  • Gut: Verbesserter Einsatz von Anwendungsfällen auf der Grundlage vertrauenswürdiger und sicherer Daten.
  • Schnell: Schneller Einsatz von Anwendungsfällen und deren Ausführung.
  • Günstig: Begrenzung von Datenbewegungen und Redundanzen, Verbesserung der Recheneffizienz.

Fertigungsbetriebe, die sowohl von IT als auch von OT unterstützt werden, sind bereits nah dran, die Prinzipien des Data Mesh umzusetzen. Um das volle Potenzial von KI und ML in einer Fabrikumgebung auszuschöpfen, sind nur kleine Anpassungen erforderlich: Die nächsten Schritte wären hier Daten-Governance-Praktiken zur Anpassung der Verantwortlichkeitsverhältnisse und zur Einführung von Datenprodukten, gekoppelt mit hochskalierbarer Rechenleistung, die in der Lage ist, in einem vielfältigen Datenökosystem effizient zu arbeiten.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*