Wer braucht den Digitalen Zwilling wirklich?

Keine Zukunft ohne Digital Twin. Nur mit dem Digitalen Zwilling können Unternehmen die Weichen in Richtung Zukunft richtig stellen. Doch wie sieht es in der Praxis aus? Unser Ratgeber zeigt, was ein Digital Twin wirklich bringt und was bei der Implementierung zu beachten ist. [...]

Mit dem Digital Twin lassen sich industrielle Produkte dynamisch digital abbilden (c) pixabay.com

Geht es um zukunftsweisende Unternehmenskonzepte, so scheint mittlerweile kein Weg mehr am Digital Twin vorbeizuführen. Dank ihm werden die Firmen flexibler, dank ihm vermeiden Verantwortliche Fehlentscheidungen, dank ihm wird die Produktentwicklung revolutioniert, dank ihm läuft die Produktion effizienter. Oder kurz, der Digitale Zwilling scheint das Rüstzeug für die Digitalisierung zu sein.

Doch wie kommt ein Unternehmen zu einem Digital Twin? Worauf ist bei der Implementierung zu achten? Gibt es out of the box funktionierende Digital Twins? Welche Auswirkungen hat der Digitale Zwilling auf die IT-Landschaft? Bei der Beantwortung dieser und anderer Fragen rund um den Digital Twin half uns Andreas Dangl, Experte für KI und Cloud Computing bei der Fabasoft AG.

Welchen konkreten Nutzen bietet ein Digital Twin in der Praxis und lässt sich dieser Nutzen auch mit Zahlen untermauern?

Der Begriff „Digital Twin“ wird üblicherweise für die digitale Abbildung eines Objekts aus dem „Internet der Dinge“ verwendet. Somit lässt sich jedes industrielle Produkt dynamisch digital abbilden. Der DTO-Ansatz hingegen, wie ihn Gartner 2018 vorgestellt hat, geht darüber hinaus. Mit der Abbildung der gesamten Unternehmensorganisation durch den „Digital Twin of an Organisation“ (DTO) wird die optimale und umfassende Planung aller Prozesse im Unternehmen möglich. Die heute verfügbaren und aus der Cloud beziehbaren Software-Lösungen liefern wichtige Bausteine für die Verwirklichung dieser Vision.

Zum Nutzen in Zahlen: Digital Twins sorgen für bis zu 30 Prozent kürzere Durchlaufzeiten und verbessern zum Beispiel die Effizienz des Maschineneinsatzes in der Industrie 4.0 durch laufende Echtzeit-Datenanalyse aus der Produktion um rund 20 Prozent.

Welche Unternehmensbereiche profitieren insbesondere von einem Digital Twin?

Wenn wir den Digital Twin of Organisation betrachten, dann können von ihm alle Unternehmensbereiche profitieren, da hier die ganze Aufbauorganisation und ihre Systeme sowie die Prozesse und Workflows gespiegelt werden. Einmal in die Cloud importiert und in Betrieb genommen, lassen sich sämtliche Prozesse und Ablaufketten aus der Vogelperspektive betrachten und gemäß den festgelegten Prozess-Regeln steuern. Besondere Vorteile sind die verbesserte Verschränkung von Produktentwicklung, Marketing und Vertrieb.

Wie verändert die Einführung eines Digitalen Zwillings mein Unternehmen?

Jedes Unternehmen wird durch die Einführung Digitaler Zwillinge strategisch und operativ beweglicher. Mit Digital Twins kann man Risikoanalysen durchführen, Tests, Simulationen und Auswertungen in der Produktentwicklung vornehmen und damit neue Business-Modelle ausloten. Es ist sogar möglich, gespiegelte Prozesse mit Künstlicher Intelligenz anzureichern, um diese auf Basis von Echtzeit-Interaktionen und den sich ergebenden Lerneffekten ständig zu verbessern.

Die Argumente für einen Digitalen Zwilling haben uns überzeugt, wir haben aber unsere IT outgesourct. Können wir den Digital Twin auch so implementieren?

Mit einer ausgelagerten IT hat man den ersten Schritt zur Implementierung von Digitalen Zwillingen ja fast schon vollzogen. Cloud-Anbieter, welche für ihre Kunden IT-Ressourcen bereitstellen, befinden sich quasi immer im Innovationsmodus, um die Sicherheit von Daten Dritter sowohl in der Speicherlokation als auch während des netzbasierten Zugriffs durch die Anwender zu schützen.

Müssen wir den Zwilling selbst entwickeln oder gibt es Out-of-the-box-Lösungen?

Die Zeiten, in denen sich Unternehmen ihre gesamten IT-Kapazitäten selbst beschaffen und die erforderlichen komplexen Skills aufbauen mussten, sind mit dem Siegeszug des Cloud Business vorbei. Professionelle IT-Dienstleister verfügen über die entsprechende Lösungskompetenz, gerade auch im weitreichenden Projektgeschäft. Es zählt zu ihren Kernkompetenzen, mit Technologie- und Markttrends auf Augenhöhe zu sein. DT(O)-Einsteiger wird empfohlen, die Entwicklung einer solchen Zukunftslösung in die bewährten Hände dieser professionellen Service-Anbieter zu legen. Mit ihnen können die Anforderungsprofile in enger Kooperation punktgenau erarbeitet und dann in die Tat umgesetzt werden.

Macht es Sinn unterschiedliche Zwillinge für verschiedene Rollen (etwa CFO, Ingenieur) einzusetzen?

Hier gibt es keine allgemeingültige Empfehlung, weil es angesichts der unterschiedlichen Unternehmen und Märkte keinen „One size fits all“-Ansatz für die IT geben kann. Die Informationstechnologie muss immer auf die Unternehmensstrategie und die Business-Ziele ausgerichtet sein und die dafür nötigen Prozesse sowohl im Unternehmen selbst sowie im erweiterten Umfeld bestmöglich unterstützen. Oder anders formuliert: Bei handels- und marketing-lastigen Branchen kann es durchaus Sinn machen, die Steuerung vieler miteinander verwobener Standardprozesse mit einem durchgehenden DTO-Konzept zu adressieren.

Bei hochkomplexen industriellen Produktionsprozessen mit erweiterten Sicherheitsanforderungen an die OT-Applikationen kann es durchaus Sinn machen, zuerst einmal die Kernprozesse am Shop Floor mit einem Digitalen Zwilling abzubilden und aus den Real-Time-Datenflüssen Informationen für Effizienzsteigerungen herauszufiltern.

Wie finde ich die passende Lösung? Was sind die Entscheidungskriterien?

Wie bereits angedeutet: Eine Lösung sollte individuell konzipiert, designt und implementiert werden. Ausschlaggebend sind die verfolgte Marktstrategie, die schon bisher aufgesetzten Prozesse und Workflows, die eventuelle Weiterverwendbarkeit von Legacy-Devices und -Systemen, in weiterer Folge aber auch die Innovationsziele und Perspektiven, welche in die Lösungssuche einfließen müssen. Und selbstverständlich sind Anlagensicherheit und Datenschutz ebenfalls von hohem Belang. Mit der exakten Abbildung der Unternehmensorganisation oder eines Produktionsprozesses schälen sich zudem die notwendigen Performance-Ansprüche heraus. Wichtig ist, dass Technologie nie Selbstzweck ist, sondern auf die bestehenden Betriebsabläufe und Kommunikationserfordernisse abgestimmt wird.

Welches Konzept ist zu bevorzugen? Ein umfassender Zwilling, oder wie es andere propagieren, mehrere spezialisierte Digital Twins etwa für das Produkt, die Produktion und die Entwicklung?

Bei all jenen Unternehmen, die Vorreiter im Einsatz von cyber-physikalischen Systemen sind, wird es einen enormen Schub in Richtung Anwendung von umfassenden DT-Technologien geben. Und diese Branchen zeichnen sich mittlerweile ziemlich klar ab: Industrielle Fertigung, Automotive, Retail, Health Care oder Smart Cities.

Wer sind denn derzeit namhafte Anbieter von Digital-Twin-Lösungen?

Bei der Erstellung dieser FAQ rund um das Thema Digital Twin half uns Andreas Dangl, Experte für KI und Cloud Computing bei der Fabasoft AG (c) Fabasoft

Die bekannten großen Anbieter aus den Segmenten Product Lifecycle Management Software und Cloud Computing haben sich bereits im Digital-Twin-Markt etabliert. Dazu zählen Siemens, PTC, Dassault oder IBM, Microsoft und SAP. Die einzelnen Hersteller verfolgen jedoch Strategien mit unterschiedlichen Schwerpunkten, wie beispielsweise IoT-Plattformen, Big Data, Augmented Reality, Manufacturing Execution System, Advanced Analytics, Connected Services und Sensoren und natürlich Schnittstellen.

Gibt es einen Digital Twin auch as a Service, ähnlich wie SaaS?

Ja. Die Dienste verfügen meist über Standard-Features, die dann auf die speziellen Erfordernisse der Anwender feingetunt werden.

Wie betreibe ich später einen Digital Twin? On Premise oder in der Cloud?

Dies ist keine Entscheidung, die alleine den Einsatz von Digitalen Zwillingen betrifft, sondern eine grundsätzliche Festlegung, wie ein Unternehmen heute seine IT organisieren will. Seit Cloud Computing die Vorbehalte der Wirtschaft gegenüber möglichen Sicherheitsrisiken ausräumen konnte und mit Zertifizierungen und Schutzkonzepten Vertrauen in dieses IT-Bereitstellungsmodell aufgebaut hat, haben sich viele Unternehmen dafür entschieden. Dort, wo besonders sensible Daten im Spiel sind, existieren vielfach hybride Modelle aus On-Premises Datenhaltung sowie Speicherung und Verarbeitung von Daten in der Cloud.

Da beim Digital Twin-Einsatz davon auszugehen ist, dass etwa Sensoren an abgebildeten physischen Objekten heikle Daten sammeln, die laufend in den digitalen „Doppelgänger“ einfließen und dort für Interventionen analysiert werden, sind heutige Cloud-Umgebungen inklusive umfassender Security Policies jene Lokation, die für den Betrieb dieser Technologie zu bevorzugen sind.

Ich habe sehr unterschiedliche Maschinen mit verschiedenen Dashboards in der Produktion im Einsatz. Wie kommt der Digitale Zwilling an diese Daten heran?

Digitale Zwillinge können als jüngster Baustein der intelligenten Digitalisierung vor allem mit vier wesentlichen Charakteristiken überzeugen:

  • Laufende Datensammlung über IoT-Devices – beispielsweise Sensoren
  • höchste Konnektivität für bi-direktionale Datenkommunikation,
  • definierte Datenstrukturen für beste Interoperabilität und
  • entsprechende User-Interfaces zur Visualisierung.

Die Anbindung von Dashboards und Steuerungskonsolen für industrielle Produktions- oder Fertigungsanlagen gehört heute zu den Standard-Features der Digital Twin-Technologie.

Wie sieht es mit der Anbindung/Verknüpfung anderer digitaler Techniken wie Augmented Reality oder Virtual Reality an den Digitalen Zwilling aus?

Der Digital Twin ist jener „missing link“, der andere Zukunftstechnologien wie IoT oder auch Augmented und Virtual Reality zum Fliegen bringt. Und wenn man es genau nimmt, ist der Digitale Zwilling als Abbildung eines physischen Objektes ja selbst virtuelle Realität. Diese wechselseitige Ergänzung von realen Objekten/Prozessen mit virtuellen Spiegelbildern, beziehungsweise der Brückenschlag zwischen physikalischer und Cyberwelt eröffnet völlig neue Möglichkeiten des Produktdesigns oder disruptiver Business-Prozesse.

Wie sieht es mit der Interaktionsfähigkeit eines Digital Twins aus? Werden etwa Veränderungen gleich direkt an eine Maschine weitergeleitet?

Die Eigenschaften der umfassenden Konnektivität und definierter Datenstrukturen setzen den Interaktionsspielräumen dieser Spiegelungstechnologie so gut wie keine Grenzen. Es ist nur eine Konfigurationsfrage, welche Schienen für die Datenaustauschprozesse aktiviert werden. Systemänderungen werden beim Digital Twin-Konzept immer sofort mit allen beteiligten Modulen synchronisiert. Damit können etwa nach einer Analyse geänderte Parameter aus dem digitalen Zwilling unmittelbar in die Programmsteuerung einer Produktionsmaschine zurückgespielt werden.

Wo liegen die Grenzen des Digital-Twin-Konzepts, beziehungsweise: Gibt es Gesichtspunkte, bei denen von Einsatz des Digitalen Zwillings abzuraten ist?

Auch im Bau ist der Digital Twin mittlerweile unverzichtbar – etwa beim Bau der Kelchstützen von Stuttgart 21 (c) Arnim Kilgus

Wenn die erwähnten vier Grundcharakteristika nicht ineinandergreifen, erreicht man die Grenzen des Digital-Twin-Konzepts. Einer der zentralen Punkte für das Gelingen von Digital-Twin-Projekten ist außerdem die Usability bei der Systemnutzung durch die Anwender. Daher ist es ratsam, Digital-Twin-Anwendungen immer gemeinsam im Team aus Technologie- und Prozessexperten zu planen, zu entwerfen, aufzusetzen und zu betreiben. Externe Unterstützung können Software-Systemhäuser und Cloud Provider leisten.

Ein Digital Twin, der alles über mein Unternehmen weiß und die Informationen an einem Ort vorhält – ist das nicht ein hohes Sicherheitsrisiko?

Sicherheit ist das Metathema in der Informationswirtschaft. Im Hinblick auf die Unternehmens-IT haben sich die meisten Cloud-Anbieter jedoch in den letzten Jahren mit ihren zertifizierten Infrastrukturen und Rechenzentren zu hoch verlässlichen Datentreuhändern entwickelt. Das Cloud-Modell ist daher auch prädestiniert, den Einsatz der Digital-Twin-Technologie zu pushen.

Da Digitale Zwillinge aber besonders auch im Manufacturing Einzug halten, gilt es zu beachten, dass die Sicherheitsanforderungen bei Operating Technology zur Steuerung von industriellen Produktionsanlagen meist konträr anderen Ansprüchen entsprechen müssen: Schutz des menschlichen Lebens versus weniger Ausfallzeiten, nur als Beispiel. Das erfordert höchste Stabilität und Robustheit im Betrieb der Anlagen, gepaart mit autonomen Schutzmechanismen zum Sofort-Stopp von Maschinen. Diese Anforderungen müssen dann natürlich auch bei der digitalen Spiegelung der physikalischen Fertigungseinheiten gewährleistet bleiben. Als weiterer Risikobereich gelten die Finanz- oder Innovationsbereiche von Unternehmen, weil hier mit Attacken aus dem Netz große Schäden angerichtet werden können. Daher empfiehlt es sich bei einer DTO – also einer digitalen Abbildung der gesamten Unternehmensstruktur – die Unternehmensbereiche in Zonen aufzuteilen, die noch einmal getrennt geschützt werden, ohne jedoch die unternehmensübergreifenden Datenflüsse in den aufgesetzten Prozessen zu stark zu behindern.

Letztlich ist die Implementierung eines Digital Twin-Konzepts für Unternehmen ein Spagat zwischen Sicherheit und Effizienz.

*Jürgen Hill ist Teamleiter Technologie. Thematisch ist der studierte Diplom-Journalist und Informatiker im Bereich Communications mit all seinen Facetten zuhause. 


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*