Die Industrieanlage, die ihre eigenen Fehler findet

Wenn unüberblickbar viele Geräte, Sensoren und Datenströme koordiniert werden müssen, ist der Mensch überfordert. TU Wien und AIT zeigen, wie man damit umgeht und dabei der Umwelt hilft. [...]

Prof. René Hofmann ist Stiftungsprofessor am Institut für Energietechnik und Thermodynamik der TU Wien und thematischer Koordinator am AIT im Center for Energy.
Prof. René Hofmann ist Stiftungsprofessor am Institut für Energietechnik und Thermodynamik der TU Wien und thematischer Koordinator am AIT im Center for Energy. (c) Wilke

Industrieanlagen werden immer komplexer. Eine gewaltige Zahl mechanischer, elektrischer und elektronischer Komponenten muss möglichst gut zusammenspielen – nicht zuletzt mit dem Ziel, Energie und CO2-Emissionen einzusparen. Das gelingt durch Fortschritte im Bereich der Digitalisierung und Optimierung. Prof. René Hofmann, Stiftungsprofessor am Institut für Energietechnik und Thermodynamik der TU Wien und thematischer Koordinator am AIT im Center for Energy, entwickelt mit seinem Team datengetriebene Modelle, mit denen der Betrieb komplexer Industrieanlagen überwacht, geplant und somit optimiert werden kann. Dadurch wird es sogar möglich, dass Systemfehler selbstständig erkannt werden und gezielt nach der Ursache gesucht wird.

Die Digitalisierung ändert alles

Wenn man vor hundert Jahren ein Telefongespräch führen wollte, musste man die Verbindung händisch herstellen lassen – in der Telefonzentrale musste jemand genau wissen, welches Kabel in welchen Stecker gehört, um das Gespräch zu ermöglichen. Bei der heutigen Flut an Datenpaketen wäre dies völlig undenkbar. Eine ähnliche Revolution steht nun in der industriellen Energieprozesstechnik bevor.

„Gerade im Energiebereich haben wir es mit einer Komplexität zu tun, die vom Menschen einfach nicht mehr überblickt werden kann“, sagt René Hofmann. „Stellen wir uns vor, wir haben in einem Industriebetrieb große Erzeugeranlagen, die einen Prozess mit Wärme versorgen. Lässt sich diese Wärme für andere Prozess-Schritte weiternutzen? Sollte man sie speichern? Soll man Kraft-Wärme-Kopplung einsetzen? Wie geht man am besten mit der Integration von thermischen und elektrischen Speichern um, auch angesichts eines Strompreises, der je nach Tageszeit schwankt? Wie können erneuerbare Energieträger optimal integriert werden? Und was machen wir am besten, wenn das Wetter besser wird und die Photovoltaik-Anlage am Dach plötzlich sehr viel Leistung liefert?“ Klug durchdachte Algorithmen schaffen es, den richtigen Weg durch dieses wirre Dickicht an voneinander abhängigen Optimierungsaufgaben zu finden.

Der „Digitale Zwilling“

Dabei werden unterschiedliche Methoden eingesetzt. „Oft spricht man vom digitalen Zwilling einer Komponente oder eines Prozessabschnitts“, sagt René Hofmann. „Damit meint man ein Computermodell, das alle wichtigen Komponenten physikalisch korrekt mit Echtzeit-Daten nachbildet und dadurch einen Blick in die Zukunft werfen kann: Wie viel Abwärme gibt meine Energieversorgungsanlage im Lauf der Zeit ab? Wie hoch sind die Isolationsverluste? Wie ändert sich die Effizienz meines Herstellungsprozesses mit der Temperatur? Wie viel Wasser wird in einer Stunde durch ein ganz bestimmtes Rohr fließen? In einem digitalen Zwilling der Anlage wird all das bis ins Detail simuliert und mit echten Prozessdaten laufend abgeglichen, sodass sich die Modelle von selbst adaptieren.“

Ein solcher Digitaler Zwilling bietet mehrere Vorteile: Man kann zum einen damit Prozesse besser planen und genau vorherberechnen, welche strategischen Planungsentscheidungen am Ende das beste und effizienteste Resultat liefern. „Diesen Ansatz kann man auch nutzen, um neue Anlagen zu planen oder bestehende Anlagen auf optimale Weise zu erweitern“, sagt René Hofmann. „Wir forschen daran, wie man optimalen Betrieb mit optimalem Anlagedesign verbinden kann, in diesem Bereich gibt es noch großes Verbesserungspotenzial.“ 

Wichtig ist auch, dass man auf diese Weise permanent überwachen kann, ob die Anlage richtig arbeitet: „Wie sich physikalische Größen wie etwa Stromverbrauch, Temperatur oder Durchflussraten im Lauf der Zeit ändern, können wir ständig überwachen und mit den Berechnungen des digitalen Zwillings vergleichen“, sagt René Hofmann. „So fällt rasch auf, wenn irgendwo etwas nicht stimmt.“ Diesen Vorgang kann man automatisieren: Wenn die tatsächlichen Werte mit den berechneten Werten nicht übereinstimmen, dann kann das System automatisch unterschiedliche mögliche Fehler simulieren und so erkennen, was getan werden muss: Ist ein Ventil nicht geschlossen oder ist eine Isolationsschicht defekt? Wenn sich beide Fehler auf bestimmte Kennlinien unterschiedlich auswirken, kann das Computersystem von selbst herausfinden, welche Entscheidungen und welche Reparaturen nötig sind. Die Anlage sucht also Fehler an sich selbst und liefert rasch die richtige Diagnose.

Künstliche Intelligenz 

Es muss allerdings nicht immer ein digitaler Zwilling sein – auch mit anderen Methoden sind große Erfolge möglich, etwa mit künstlicher Intelligenz oder Machine Learning auf Basis neuronaler Netze: „Mit einem ganz einfachen neuronalen Netz ist es uns gelungen, einen Festbett-Regenerator zu simulieren“, berichtet Hofmann. „Das ist ein thermischer Energiespeicher, in dem die Energie von heißem Gas auf festes Material (z.B. Kies oder Korund) – und wieder zurück – übertragen wird. Unser neuronales Netz kann sehr präzise vorhersagen, wie sich das System verhalten wird, und das mit deutlich weniger Rechenaufwand als er für eine präzise physikalische Simulation dieses Speichers notwendig wäre.“

In Zukunft könnte unsere Industrie durch künstliche Intelligenzen gezielt unterstützt werden, um automatisch Fehler zu finden, um durch vorausschauende Entscheidungen Geld zu sparen und um letztlich damit die Umwelt zu schonen. „In der Industrie herrscht heute bereits Konsens, dass man an dieser Art von Digitalisierung zukünftig nicht mehr vorbeikommen wird“, sagt René Hofmann. „Viele Firmen arbeiten intensiv daran – aber das kann nur funktionieren, wenn sie auf solide Grundlagenforschung aufbauen können. Diese Lücke können wir schließen. Wir sind hier in einer Schlüsselposition zwischen theoretischer Forschung und konkreter Anwendung in der Industrie – und das in einer ganz spannenden Zeit, in der die Grundlagen für die digitale Industrie der Zukunft geschaffen werden.“ 


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*