Big Data in der Produktion

Big-Data-Analysen im Produktionsumfeld versprechen effizientere Produktionsprozesse, besseres Verständnis von Kundenwünschen, optimiertes Produktdesign und umfassendes Qualitätsmanagement. [...]

Der IT-Dienstleister it-novum mit Zentrale in Fulda und einer Niederlassung in Wien ist auf Open Source Software spezialisiert und verfolgt nicht nur im Bereich Big Data den Ansatz, durch die Integration von Closed und Open Source moderne Unternehmensanwendungen zu schaffen. Geschäftsführer Michael Kienle erläutert im Interview das Potenzial von Big Data für produzierende Unternehmen.

In welchen Bereichen können Big-Data-Analysen im Produktionsumfeld sinnvoll eingesetzt werden?
Michael Kienle:
Ich sehe da vor allem die Optimierung von Produktionsprozessen durch die Nutzung von Sensor- und Maschinendaten und eine umfassendere Analyse von Kundenwünschen zur besseren Vorhersage von Produktionsbedarf, zum Beispiel indem man Social-Media-Daten auswertet oder weitgehende Informationen entlang der Supply Chain integriert. Auch das Produktdesign lässt sich optimieren, weil sich Kundenbedürfnisse besser ermitteln lassen. Im Qualitätsmanagement lassen sich Verbesserungen durch tiefere Analysen der Produktion erreichen.

Welche Daten spielen in der Produktion eine besonders wichtige Rolle?
Maschinen- und Sensordaten spielen eine herausgehobene Rolle, besonders in Kombination mit den Daten aus den Bestandssystemen.
 
Wie sieht es mit konkreten Beispielen für Big-Data-Einsatz in der Produktion aus?
Der Pharmahersteller Merck zum Beispiel nutzt Hadoop für die schnellere Entwicklung von Impfstoffen. Durch den Schema-on-Read-Ansatz von Hadoop kann das Unternehmen riesige Datenmengen aus sechzehn Datenquellen sofort für Analysen bereitstellen, ohne sie vorher über ETL-Prozesse in ein relationales Datenbankschema übertragen zu müssen. Die Zeit- und Ressourceneinsparungen bei der Impfstoffentwicklung sind dabei erheblich.

Wie können Big-Data-Plattformen fehlende Transparenz im Produktionsgeschehen wettmachen?
Zum einen können Daten entlang der Produktionsprozesse beziehungsweise entlang der Supply Chain schnell eingesammelt und ausgewertet werden. Das hilft, um einen Überblick über Produktion und Logistik zu bekommen, bessere Vorhersagen zu treffen und eventuelle Probleme schneller erkennen zu können. Zum anderen können Daten ausgewertet werden, die bislang aus wirtschaftlichen Gründen wie Kosten für Speicher keine Beachtung fanden. Produktionsabläufe werden dadurch transparenter und nachvollziehbarer.
 
Inwieweit verändern sich die Aufgaben der Produktionsmitarbeiter durch den Einsatz von Big-Data-Technologien?
Informationen stehen schneller und umfänglicher zur Verfügung, sodass besser reagiert werden kann.

Welche Hürden sehen Sie für eine flächendeckende Nutzung von Big-Data-Lösungen in der Produktion?
In den operativen Bereichen muss erst eine Akzeptanz der neuen Lösungen hergestellt werden. Ungewohnt kann es sicher erstmal für Mitarbeiter sein, dass Entscheidungen nicht mehr aus dem Bauch, sondern faktenbasiert getroffen werden. Zudem muss man sich zuerst über die relevanten Datenquellen und zu messenden Kennzahlen klar werden: was will ich wissen und wie will ich es aufbereiten?
Darüber hinaus muss Topmanagement bereit sein, in die neuen Technologien zu investieren. Bei der Einführung von Big-Data-Anwendungen geht es in erster Linie nicht um Technologien, sondern um Business-Szenarien. Das heißt, das Management muss zuerst die organisatorischen Rahmenbedingungen schaffen, damit die Projekte erfolgreich sein können und Optimierungspotentiale tatsächlich realisiert werden können.
 
Wie lassen sich sämtliche Datenquellen (Maschinen, Prozesse, Produkte) und Systeme wie ERP, SCM oder BI am besten integrieren?
Abhängig von den konkreten Anforderungen gibt es viele mögliche Technologien. Mit einer Hadoop-Plattform lassen sich zum Beispiel Daten aus den unterschiedlichsten Quellen integrieren und auch sehr große Datenvolumen performant verarbeiten. Die Ergebnisse dieser Verarbeitung können über entsprechende Schnittstellen auch an bestehende Systeme, wie etwa eine Business-Intelligence-Anwendung, zurückgegeben werden. Leistungsstarke ETL-Werkzeuge helfen, moderne Big-Data-Architekturen zu bewirtschaften.
Häufig gibt es nicht nur einen Hadoop-Cluster oder eine NoSQL-Datenbank, sondern ein Zusammenspiel unterschiedlicher Technologien. So hat es sich auch bewährt, verdichtete Informationen aus den Big Data Stores in analytischen Datenbanken zu speichern und sie dadurch den Anwendern schnell und einfach verfügbar zu machen. Moderne ETL-Werkzeuge bieten Schnittstellen zu diesen Systemen und ermöglichen den Betrieb solcher Lösungen. Ein großer Vorteil von Big-Data-Technologien ist, dass fast alle von ihnen Open Source sind, sodass sie Standards unterstützen und eine offene Architektur besitzen. (oli)


Mehr Artikel

Die Teilnehmer des Roundtables (v.l.n.r.): Roswitha Bachbauer (CANCOM Austria), Thomas Boll (Boll Engineering AG), Manfred Weiss (ITWelt.at) und Udo Schneider (Trend Micro). (c) timeline/Rudi Handl
News

Security in der NIS2-Ära

NIS2 ist mehr ein organisatorisches Thema als ein technisches. Und: Von der Richtlinie sind via Lieferketten wesentlich mehr Unternehmen betroffen als ursprünglich geplant, womit das Sicherheitsniveau auf breiter Basis gehoben wird. Beim ITWelt.at Roundtable diskutierten drei IT-Experten und -Expertinnen über die Herausforderungen und Chancen von NIS2. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*