Ein Tag in der Papierfabrik der Zukunft

Tieto zeigt anhand eines Use Case mit Desktop, Kinect V2 und Google Glass seine Vision des Tieto Future Mill Workplace und stellt dar, wie im Rahmen von Industrie 4.0 im Jahr 2017 Arbeitsplätze in einer vernetzten Papierfabrik aussehen könnten. [...]

Industrie 4.0 steht für ganzheitliche Automationskonzepte, in denen alle Bereiche vernetzt sind. Relevante Daten fließen in einem holistischen Konzept in ein Entscheidungsunterstützungssystem ein, das den Mitarbeitern bei ihren täglichen Entscheidungen hilft. Diese Hilfestellung erfolgt über einfache Tools und Techniken, wie beispielsweise Google Glass oder Kinect für Windows, einer Xbox-ähnlichen Konsole für kommerzielle Anwendungen, die durch Sprachbefehle oder Gesten gesteuert wird. Sobald sich Mitarbeiter per Gesichtserkennung anmelden, ist eine berührungs­lose Bedienung möglich.

Auch der Einsatz der Google Brille ist ideal, vor allem wenn ein Unternehmen mehr Generalisten als Facharbeiter beschäftigt, denn auf diese Weise werden sowohl Alerts, also Problemmitteilungen, als auch Produktions- und Wartungsinformationen sofort angezeigt, ohne dass Mitarbeiter an die Maschinen oder zu den Arbeitsplätzen müssen. Zusätzlich werden die Maschinen transparenter, was bedeutet, dass man die Sicht auf die Maschine mit dem Chef oder anderen Facharbeitern teilen kann und die Wartung oder Reparatur somit schneller durchgeführt werden kann.

IT-EINSATZ NIMMT ZU
Die Benutzung verschiedener IT-Systeme für einen Geschäftsvorfall (Informationsbeschaffung, Zusammenarbeit, Kommunikation) nimmt dabei zu und ein zentraler Punkt eines IT-Systemes der Zukunft ist die Unterstützung der Benutzer bei relevanten Entscheidungen. Sei es durch Wissensmanagement oder Simulation der jeweiligen Auswirkungen. Zudem ist die Integration von Kommunikation und Zusammenarbeit in verschiedenen Szenarien eine große Chance zu mehr Effizienz.

Wie das aussehen kann, zeigt Tieto mit „einem ganz normalen Arbeitstages im Schichtdienst in einer Papierfabrik im Jahr 2017“: Es ist 7 Uhr. Herr Huber ist Schichtleiter und checkt 15 Minuten vor seinem Schichtbeginn ein. Im Jahr 2014 hat seine Schicht mit dem Schichtübergabe-Meeting begonnen, das manchmal über eine Stunde gedauert hat. Im Jahr 2017 jedoch läuft der Schichtwechsel im Rahmen des Tieto Future Mill Workplaces so ab: Herr Huber stellt sich vor den Screen, der mit einem Kinect V2 Sensor ausgestattet ist. Er wird automatisch, ohne Berührung, an Statur und Gesicht erkannt. Nach der Erkennung wird ihm sein persönliches Dashboard angezeigt, das Informationen wie Vorkommnisse aus der vorangegangenen Schicht, Aufgaben, wer noch in der Schicht arbeitet oder die derzeitige Performance seiner Abteilung (beispielsweise KPIs über die Papiermaschine) anzeigt.

Bei Bedarf kann sich Herr Huber über Gestensteuerung bzw. Steuerung durch Spracheingabe Details zu den oben genannten Punkten anzeigen lassen. Dadurch ist eine Steuerung auch mit Handschuhen ohne jegliche Berührung möglich. Die Daten werden dazu aus verschiedenen IT-Systemen konsolidiert und simpel dargestellt. Der dafür verwendete Sensor ist ein KINECT V2 Sensor, der im Gegensatz zu Touchscreens kostengünstig und auch industriegerecht (staub-, schlag-, wassergeschützt) verbaut werden kann.

Es ist 10 Uhr. Herr Huber nimmt sein Tablet zur Hand, das nur Informationen zeigt, die auf ihn zugeschnitten sind und die Digital Mill genau darstellen. Er sieht auf einem Blick, dass alle Maschinen ordnungsgemäß laufen. In seinem Kommunikations-Bereich erhält er Mitteilungen von seinen Mitarbeitern, aber auch von den IT-System und Maschinen. Zur Bearbeitung von Aufgaben oder Mitteilungen zieht er diese einfach in sein Arbeitsbuch und erhält ausführliche Hintergrundinformationen und Lösungsvorschläge.

Es ist 12 Uhr. Ein Problem tritt auf. Herr Huber ist gerade am Gelände unterwegs, als er eine Nachricht am Mobiltelefon erhält: Aufgrund punktueller Qualitätsprobleme muss eine Nachproduktion stattfinden. Das System hat im Voraus berechnet, dass die Nachproduktion einer kompletten Einheit zur Überproduktion führen wird. Am Mobiltelefon wird eine Übersicht über das Ausmaß und die Kosten eingeblendet. Somit erhält Herr Huber eine solide Grundlage für die Entscheidung, ob weitere Schritte nötig sind.

NAHTLOSE VERNETZUNG
Der Schichtleiter entscheidet sich, zu reagieren und geht zu seinem Desktop-PC, um mögliche Szenarien wie zum Beispiel einen Stopp der Nachproduktion oder Bedarf der Überproduktion in naher Zukunft detaillierter zu analysieren. Dort kann er nahtlos weiter arbeiten, da das System die vorangegangene Kommunikation sowie weitere Daten anzeigt. Mögliche Lösungsszenarien werden priorisiert angeboten inklusive der jeweilig beteiligten Personen. Für das ausgewählte Lösungs­szenario werden die benötigten Aktionen in den verschiedenen IT-Systemen automatisch ausgeführt. Die Entscheidung und deren Erfolg wird dokumentiert und ins System eingetragen, damit auch andere Schichten oder Werke davon lernen können.

Es ist 14 Uhr. Der Papiermaschinenverantwortliche ist gerade in der Fabrik unterwegs und bekommt in seinem Future Mill Workplace auf der Google Glass einen Warnhinweis eingeblendet: Es wird mit 90-prozentiger Wahrscheinlichkeit zu einem Papierriss kommen. Er sieht sich auf dem Weg zurück zum Kommandostand weitere Details auf der Google Glass an und entscheidet sich im Zurückgehen, seinen Supervisor anzurufen und mit ihm das weitere Vorgehen zu besprechen. Als er am Kommandostand ankommt, hat er die notwendigen Aktionen schon definiert, führt sie durch und vermeidet den Papierriss.

Es ist 16 Uhr. Es muss eine Wartungsarbeit an einem Aggregat in der Papierfabrik durchgeführt werden. Der zuständige Mitarbeiter, ein Generalist und kein Facharbeiter, tritt vor das Aggregat, Google Glass erkennt dieses und blendet die Schritte zum Herunterfahren ein. Der Mitarbeiter weiß somit genau, was er beachten muss und hat beide Hände frei. Er bestätigt den Beginn der Wartungsarbeit auf der Google Glass und diese Information wird sofort an andere relevante Mitarbeiter weitergegeben.

Da es während der Wartungsarbeiten zu Problemen kommt, ruft der Mitarbeiter den Hersteller des Aggregats an. Mit Google Glass hat er die Möglichkeit, seine Sicht auf das Aggregat zu teilen – der Experte aus Schweden sieht quasi durch die Augen des Mitarbeiters. Gemeinsam lösen sie das Problem schneller und effizienter. (pi/oli)


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*