Das Nadelöhr des Digitalen Zwillings

Digital Twins sollen Effizienz und Transparenz von Prozessen erhöhen, indem unterschiedliche Partner und Systeme Zugriff auf das virtuelle Abbild von Maschinen erhalten. Mit der Erweiterung seiner kommunikativen Fähigkeiten steigt der Mehrwert des Digitalen Zwillings. [...]

Je besser die Fähigkeit des Digital Twin ausgeprägt ist, sich mit anderen Systemen zu verbinden, desto geringer die Wahrscheinlichkeit, dass der Datenaustausch zum Bottleneck wird und höher der Wertbeitrag, den er leisten kann (c) pixabay.com

Die Idee des Digital Twins stammt aus der Automatisierung. Ihr Ziel ist es, mehr Transparenz zu schaffen, Effizienzgewinne zu ermöglichen, Prozesse schneller, flexibler, sicherer und einfacher zu gestalten. Man könnte auch sagen, dass der Vorteil des Digitalen Zwillings vor allem darin liegt, dass er Ausdruck einer digitalen Sharing Economy ist. Denn als virtuelles Abbild ermöglicht ein Digital Twin allen am Prozess Beteiligten – beim Produkt etwa Hersteller und Käufer – den simultanen Zugang zum aktuellen Fertigungsstand.

Es geht schlicht darum, im virtuellen Raum reales Objekt und digitales Pendant so miteinander zu verbinden, dass das virtuelle Objekt durch in Echtzeit übermittelte Daten von Sensoren und anderen Datengebern ein möglichst umfassendes Bild des Status Quo liefern und damit letztlich einen Digitalen Zwilling produzieren kann. Für den Digital Twin bedeutet das allerdings, dass er für jegliche kommunikative Aufgabe gewappnet sein muss. Diese Anforderung wird bei den bisherigen Lösungen allerdings kaum berücksichtigt.

Heterogene Digital-Twin-Praxis

Die Anforderungen an die Datenintegration sind beim Digital Twin vielfältig. Bereits bei der Entwicklung von Produkten ermöglicht die virtuelle Spiegelung eine unmittelbare Kooperation verteilter Teams, außerdem kurzfristige Veränderungen von Simulationen und damit schnellere Entwicklungszyklen. Dazu bedarf es der Organisation des Zugangs auf unterschiedlichen Ebenen: In der Entwicklungsumgebung muss etwa der Zugriff auf aktuelle Materialspezifikationen des Herstellers geregelt sein, mit denen dann die Veränderung in der virtuellen Entwicklungsumgebung getestet werden kann. So liefert der Stahlriese ArcelorMittal bereits seit 2016 spezifische Materialinformationen direkt in eine Simulationssoftware für die Entwicklung von Elektromaschinen, mit der wiederum Ingenieure neue Motorengenerationen entwickeln.

Im Produktionsprozess kann der Digitale Zwilling dazu dienen, höhere Effizienz, optimierte Qualität und damit einen höheren Wertbeitrag zu liefern – etwa indem Auslastungsplanung, Vertrieb und Kunde jederzeit Zugriff haben und mit dem Digital Twin interagieren können. Das bedeutet, dass hier der Zugriff auf Daten aus der Ressourcenplanungs-Software ebenso ermöglicht werden muss wie die Verknüpfung mit Vertriebsdaten, etwa Bestellmengen.

Mehr Flexibilität mit Digitalen Zwillingen

Die Konsequenz: Wenn der Vertrieb die Information erhält, dass die Produktlinie mit der aktuellen Menge nicht ausgelastet ist, bietet er dem Kunden eine Erhöhung des Volumens zu niedrigen Preisen an. Dazu werden Orderdaten des Kunden wie bestellte Mengen und Qualitäten, Daten aus der Maschinensteuerung wie Qualität und Stückzahlen, daneben Daten aus Condition Monitoring und Predictive Maintenance wie Wartungspläne, dann Lagerinformationen über verfügbare Ressourcen und schließlich Supply-Chain-Informationen für eine termingerechte Lieferplanung mit dem Digitalen Zwilling verbunden.

Alternativ kann der Kunde seinerseits flexibel auf eigene Auftragsanfragen reagieren, indem er unmittelbar sehen kann, ob eine kurzfristige Änderung von Qualität oder Menge der bestellten Produkte verfügbar ist und zu welchen Kosten. Die potenziellen Effekte auf optimierte Prozesse von der Produktentwicklung über Vertrieb, Preisfindungsmodelle und Produktion bis zur Lieferung sind ebenso vielfältig wie die potenziell interagierenden Systeme. Kein Wunder also, dass das Meinungsforschungsinstitut Gartner Anfang 2019 feststellte, dass „13 Prozent der Organisationen, die IoT-Projekte implementieren, bereits Digitale Zwillinge verwenden, während 62 Prozent derzeit die digitale Doppelnutzung einführen oder dies planen“.

Die Krux beim Digitalen Zwilling ist, dass er sein volles Potenzial erst dann entfaltet, wenn der Datenaustausch mit unterschiedlichen Partnern flexibel für heterogene Aufgaben genutzt werden kann. Dabei stellen sich gleich mehrere Fragen, die im Vorfeld gelöst werden müssen: Wo ‚lebt‘ der Zwilling? In der Cloud? Oder in einem Firmennetz? Wem gehört er, wenn Kunden, Entwicklungspartner und andere Beteiligte die Daten jederzeit manipulieren und ergänzen können? Und wie ist sichergestellt, dass Sensordaten ebenso ein- und ausgelesen werden können wie Qualitätsinformationen, Produkt- und Produktionsdaten sowie Vertriebs-, Lager- und Supply-Chain-Informationen?

Wer also einen Digital Twin plant, benötigt den entsprechenden Speicherort und -platz für das Abbild und die Prozessdaten. Bei komplexen Modellen, etwa Digitalen Zwillingen von Produktionsanlagen, können schnell sehr große Datenmengen anfallen, für die dann Big-Data-Datenbanktechnologien benötigt werden. Hinzu kommen Software Tools für die Datenanalyse. Und die Schnittstellen zu all denen, die mit Daten des Digitalen Zwillings weiter arbeiten wollen oder ihrerseits Daten hinzufügen wollen.

Der Kern des Digital Twin

Den Kern des Systems bildet folglich ein Netz mit verschiedenen Komponenten:

  • das reale Produkt mit seinen Sensoren, die Daten liefern
  • Cloud-Speicher und darstellende Software als Informationsbasis
  • Analytics Software für die Auswertung der Datenflut
  • Software für Datenintegration als interne Schaltzentrale

Letztgenannte sollte dabei in der Lage sein auch große Datenmengen automatisiert zwischen realem und virtuellem Zwilling einerseits und zwischen virtuellem Zwilling – beziehungsweise den damit verknüpften Datensystemen und diversen peripheren Zielsystemen bei Partnern und Kunden – nach Bedarf zu verknüpfen.

Da sich die Anforderungen bei der Arbeit mit Digital Twins oftmals kurzfristig ändern, sind individuell programmierte Schnittstellen meist keine gute Wahl, weil die Implementierung neuer Prozesse zu langwierig, unflexibel und teuer ist. Eine moderne Standardsoftware, die die Verbindung zwischen Quell- und Zielsystemen mit wenigen Klicks herstellen kann, ermöglicht es, die Potenziale bei der gemeinsamen Nutzung des Zwillings zu heben. Digitale Zwillinge sind also sehr komplexe, technologische Wunderwerke, die vor allem eines mitbringen: einen hohen Grad an Kommunikationsfähigkeit.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

*Steffen Brehme studierte in Tralee (Irland) Informatik. Anfang der 90er war er Mitgründer von SimpleWork, das man 96 verkaufte. Anfang 97 wurde er Interims-IT-Leiter bei Maxdata, Ende 97 war er Mitgründer der Beans AG und 2002 Mitgründer der Lobster GmbH. Dort ist er Geschäftsführer und Leiter Software-Entwicklung.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*