Neue Szenarien durch Analytics

Edge Computing verlagert Rechenleistung, Anwendungen und Netzwerkservices unmittelbar an die Quelle der Datenentstehung, an die sogenannte Randstelle (Edge) des Netzwerks. Die Datananlyse ist somit unmittelbar und in Echtzeit möglich. [...]

Industrie 4.0 baut auf Technologien wie dem Internet der Dinge und sogenannten Cyber Physical Systems auf – Maschinen, die von Anfang an mit eigener Intelligenz ausgestattet sind. Das ermöglicht völlig neue Anwendungsszenarien. Eines der typischen Anwendungsfelder für Industrie 4.0 liegt im Bereich der vorausschauenden Wartung von Maschinen (Predictive Maintenance). Dabei können Unternehmen viel Geld sparen, wenn sie fehlerhafte Maschinenteile frühzeitig ersetzen, noch bevor es zu einem Produktionsausfall kommt. Mit Predictive-Maintenance-und-Quality (PMQ)-Lösungen können sie nicht nur vorhersagen, wo und wann ein Problem auftreten wird, sondern auch in welcher Form – und wie es proaktiv zu beheben ist. Grundvoraussetzung dafür ist eine entsprechende Datenbasis durch Standardschnittstellen zu Datenbanken und Big-Data-Systemen sowie auf Maschinenebene.

Aber nicht nur bei der Wartung kommt Analytics zum Einsatz: Auch bei der Auswertung von Big Data im Industrie-4.0-Umfeld liefern Analytics-Lösungen wertvolle Erkenntnisse. Das Problem: Bis heute fristet der weitaus größte Teil dieser Daten sein Dasein weitgehend ungenutzt im Maschinenraum – rund 90 Prozent des Datenaufkommens in den vergangenen zehn Jahren wurden weder erfasst noch analysiert.

DATENANALYSE IN ECHTZEIT

Edge Computing verlagert – im Gegensatz zum Cloud Computing – Rechenleistung, Anwendungen und Netzwerkservices unmittelbar an die Quelle der Datenentstehung, an die logische Randstelle (Edge) des Netzwerks. Das können Windräder, Turbinen, Stanzmaschinen oder Lackierroboter sein, Fahrzeuge, 3D-Drucker oder auch Schiffsmotoren. So kann die Relevanz von Daten direkt an ihrem Entstehungsort überprüft werden, und zwar beinahe in Echtzeit, was wiederum zu schnelleren Entscheidungen führt – und zu mehr Unabhängigkeit, weil Personal und Mitarbeiter entlastet werden. Kurz: Mit Edge Computing wächst die Freiheit der Unternehmen, zu entscheiden, an welcher Stelle einer IT-Architektur was mit den Daten passiert.

Ein solches intelligentes Mini-Datencenter, das weltweit erste Heißwasser-gekühlte 64-Bit Mikro-Rechenzentrum, hat IBM in Kooperation mit Astron, dem niederländischen Institut für Radio-Astronomie aufgebaut. Beim so genannten Micro-Data-Center-Konzept werden über 100 Smartphone-große Mikroserver zu einem Rechenzentrum zusammengefasst. Die Entwicklung wurde zunächst vorangetrieben für den Einsatz im Projekt Square Kilometre Array (SKA), bei dem das leistungsstärkste Radioteleskop der Welt in Südafrika und Australien gebaut wird. Dabei werden täglich rund 14 Exabyte an Daten generiert – und mit Micro-Datenzentren ausgewertet.

Mini-Rechenzentren verlangen auch nach neuen Chip-Architekturen. IBM hat auf der CeBIT eine solche Architektur präsentiert, die aus einem erweiter- und konfigurierbaren Netzwerk von „neurosynaptischen Prozessorenkernen“ besteht. Jeder dieser Kerne enthält Speichereinheiten (ähnlich Synapsen) und Prozessoren (ähnlich Neuronen) in einem kompakten Format. Laut dem Hersteller könnte man hier von einem „neurosynaptischen Supercomputer von der Größe einer Briefmarke mit dem Energieverbrauch einer Knopfzellenbatterie“ sprechen. (cb/idg)


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*