Das Nadelöhr des Digitalen Zwillings

Digital Twins sollen Effizienz und Transparenz von Prozessen erhöhen, indem unterschiedliche Partner und Systeme Zugriff auf das virtuelle Abbild von Maschinen erhalten. Mit der Erweiterung seiner kommunikativen Fähigkeiten steigt der Mehrwert des Digitalen Zwillings. [...]

Je besser die Fähigkeit des Digital Twin ausgeprägt ist, sich mit anderen Systemen zu verbinden, desto geringer die Wahrscheinlichkeit, dass der Datenaustausch zum Bottleneck wird und höher der Wertbeitrag, den er leisten kann (c) pixabay.com

Die Idee des Digital Twins stammt aus der Automatisierung. Ihr Ziel ist es, mehr Transparenz zu schaffen, Effizienzgewinne zu ermöglichen, Prozesse schneller, flexibler, sicherer und einfacher zu gestalten. Man könnte auch sagen, dass der Vorteil des Digitalen Zwillings vor allem darin liegt, dass er Ausdruck einer digitalen Sharing Economy ist. Denn als virtuelles Abbild ermöglicht ein Digital Twin allen am Prozess Beteiligten – beim Produkt etwa Hersteller und Käufer – den simultanen Zugang zum aktuellen Fertigungsstand.

Es geht schlicht darum, im virtuellen Raum reales Objekt und digitales Pendant so miteinander zu verbinden, dass das virtuelle Objekt durch in Echtzeit übermittelte Daten von Sensoren und anderen Datengebern ein möglichst umfassendes Bild des Status Quo liefern und damit letztlich einen Digitalen Zwilling produzieren kann. Für den Digital Twin bedeutet das allerdings, dass er für jegliche kommunikative Aufgabe gewappnet sein muss. Diese Anforderung wird bei den bisherigen Lösungen allerdings kaum berücksichtigt.

Heterogene Digital-Twin-Praxis

Die Anforderungen an die Datenintegration sind beim Digital Twin vielfältig. Bereits bei der Entwicklung von Produkten ermöglicht die virtuelle Spiegelung eine unmittelbare Kooperation verteilter Teams, außerdem kurzfristige Veränderungen von Simulationen und damit schnellere Entwicklungszyklen. Dazu bedarf es der Organisation des Zugangs auf unterschiedlichen Ebenen: In der Entwicklungsumgebung muss etwa der Zugriff auf aktuelle Materialspezifikationen des Herstellers geregelt sein, mit denen dann die Veränderung in der virtuellen Entwicklungsumgebung getestet werden kann. So liefert der Stahlriese ArcelorMittal bereits seit 2016 spezifische Materialinformationen direkt in eine Simulationssoftware für die Entwicklung von Elektromaschinen, mit der wiederum Ingenieure neue Motorengenerationen entwickeln.

Im Produktionsprozess kann der Digitale Zwilling dazu dienen, höhere Effizienz, optimierte Qualität und damit einen höheren Wertbeitrag zu liefern – etwa indem Auslastungsplanung, Vertrieb und Kunde jederzeit Zugriff haben und mit dem Digital Twin interagieren können. Das bedeutet, dass hier der Zugriff auf Daten aus der Ressourcenplanungs-Software ebenso ermöglicht werden muss wie die Verknüpfung mit Vertriebsdaten, etwa Bestellmengen.

Mehr Flexibilität mit Digitalen Zwillingen

Die Konsequenz: Wenn der Vertrieb die Information erhält, dass die Produktlinie mit der aktuellen Menge nicht ausgelastet ist, bietet er dem Kunden eine Erhöhung des Volumens zu niedrigen Preisen an. Dazu werden Orderdaten des Kunden wie bestellte Mengen und Qualitäten, Daten aus der Maschinensteuerung wie Qualität und Stückzahlen, daneben Daten aus Condition Monitoring und Predictive Maintenance wie Wartungspläne, dann Lagerinformationen über verfügbare Ressourcen und schließlich Supply-Chain-Informationen für eine termingerechte Lieferplanung mit dem Digitalen Zwilling verbunden.

Alternativ kann der Kunde seinerseits flexibel auf eigene Auftragsanfragen reagieren, indem er unmittelbar sehen kann, ob eine kurzfristige Änderung von Qualität oder Menge der bestellten Produkte verfügbar ist und zu welchen Kosten. Die potenziellen Effekte auf optimierte Prozesse von der Produktentwicklung über Vertrieb, Preisfindungsmodelle und Produktion bis zur Lieferung sind ebenso vielfältig wie die potenziell interagierenden Systeme. Kein Wunder also, dass das Meinungsforschungsinstitut Gartner Anfang 2019 feststellte, dass „13 Prozent der Organisationen, die IoT-Projekte implementieren, bereits Digitale Zwillinge verwenden, während 62 Prozent derzeit die digitale Doppelnutzung einführen oder dies planen“.

Die Krux beim Digitalen Zwilling ist, dass er sein volles Potenzial erst dann entfaltet, wenn der Datenaustausch mit unterschiedlichen Partnern flexibel für heterogene Aufgaben genutzt werden kann. Dabei stellen sich gleich mehrere Fragen, die im Vorfeld gelöst werden müssen: Wo ‚lebt‘ der Zwilling? In der Cloud? Oder in einem Firmennetz? Wem gehört er, wenn Kunden, Entwicklungspartner und andere Beteiligte die Daten jederzeit manipulieren und ergänzen können? Und wie ist sichergestellt, dass Sensordaten ebenso ein- und ausgelesen werden können wie Qualitätsinformationen, Produkt- und Produktionsdaten sowie Vertriebs-, Lager- und Supply-Chain-Informationen?

Wer also einen Digital Twin plant, benötigt den entsprechenden Speicherort und -platz für das Abbild und die Prozessdaten. Bei komplexen Modellen, etwa Digitalen Zwillingen von Produktionsanlagen, können schnell sehr große Datenmengen anfallen, für die dann Big-Data-Datenbanktechnologien benötigt werden. Hinzu kommen Software Tools für die Datenanalyse. Und die Schnittstellen zu all denen, die mit Daten des Digitalen Zwillings weiter arbeiten wollen oder ihrerseits Daten hinzufügen wollen.

Der Kern des Digital Twin

Den Kern des Systems bildet folglich ein Netz mit verschiedenen Komponenten:

  • das reale Produkt mit seinen Sensoren, die Daten liefern
  • Cloud-Speicher und darstellende Software als Informationsbasis
  • Analytics Software für die Auswertung der Datenflut
  • Software für Datenintegration als interne Schaltzentrale

Letztgenannte sollte dabei in der Lage sein auch große Datenmengen automatisiert zwischen realem und virtuellem Zwilling einerseits und zwischen virtuellem Zwilling – beziehungsweise den damit verknüpften Datensystemen und diversen peripheren Zielsystemen bei Partnern und Kunden – nach Bedarf zu verknüpfen.

Da sich die Anforderungen bei der Arbeit mit Digital Twins oftmals kurzfristig ändern, sind individuell programmierte Schnittstellen meist keine gute Wahl, weil die Implementierung neuer Prozesse zu langwierig, unflexibel und teuer ist. Eine moderne Standardsoftware, die die Verbindung zwischen Quell- und Zielsystemen mit wenigen Klicks herstellen kann, ermöglicht es, die Potenziale bei der gemeinsamen Nutzung des Zwillings zu heben. Digitale Zwillinge sind also sehr komplexe, technologische Wunderwerke, die vor allem eines mitbringen: einen hohen Grad an Kommunikationsfähigkeit.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

*Steffen Brehme studierte in Tralee (Irland) Informatik. Anfang der 90er war er Mitgründer von SimpleWork, das man 96 verkaufte. Anfang 97 wurde er Interims-IT-Leiter bei Maxdata, Ende 97 war er Mitgründer der Beans AG und 2002 Mitgründer der Lobster GmbH. Dort ist er Geschäftsführer und Leiter Software-Entwicklung.


Mehr Artikel

News

Produktionsplanung 2026: Worauf es ankommt

Resilienz gilt als das neue Patentrezept, um aktuelle und kommende Krisen nicht nur zu meistern, sondern sogar gestärkt daraus hervorzugehen. Doch Investitionen in die Krisenprävention können zu Lasten der Effizienz gehen. Ein Dilemma, das sich in den Griff bekommen lässt. […]

Maximilian Schirmer (rechts) übergibt zu Jahresende die Geschäftsführung von tarife.at an Michael Kreil. (c) tarife.at
News

tarife.at ab 2026 mit neuer Geschäftsführung

Beim österreichischen Vergleichsportal tarife.at kommt es mit Jahresbeginn zu einem planmäßigen Führungswechsel. Michael Kreil übernimmt mit 1. Jänner 2026 die Geschäftsführung. Maximilian Schirmer, der das Unternehmen gegründet hat, scheidet per 14. April 2026 aus der Gesellschaft aus. […]

News

Warum Unternehmen ihren Technologie-Stack und ihre Datenarchitektur überdenken sollten

Seit Jahren sehen sich Unternehmen mit einem grundlegenden Datenproblem konfrontiert: Systeme, die alltägliche Anwendungen ausführen (OLTP), und Analysesysteme, die Erkenntnisse liefern (OLAP). Diese Trennung entstand aufgrund traditioneller Beschränkungen der Infrastruktur, prägte aber auch die Arbeitsweise von Unternehmen.  Sie führte zu doppelt gepflegten Daten, isolierten Teams und langsameren Entscheidungsprozessen. […]

News

Windows 11 im Außendienst: Plattform für stabile Prozesse

Das Betriebssystem Windows 11 bildet im technischen Außendienst die zentrale Arbeitsumgebung für Service, Wartung und Inspektionen. Es verbindet robuste Geräte, klare Abläufe und schnelle Entscheidungswege mit einer einheitlichen Basis für Anwendungen. Sicherheitsfunktionen, Updates und Unternehmensrichtlinien greifen konsistent und schaffen eine vertrauenswürdige Plattform, auf der sowohl Management als auch Nutzer im Feld arbeiten können. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*