Neue Version von SAP Data Hub soll schnellere Verarbeitung verteilter Daten erlauben

SAP hat heute die neue Version von SAP Data Hub vorgestellt. Mit der Lösung lassen sich flexible Datenverarbeitungspipelines erstellen, die einen einzigen logischen Datensatz für das gesamte Unternehmen nutzen. [...]

SAP Data Hub ermöglicht Kunden flow-basierte Daten-Pipelines aufzubauen, zu harmonisieren und zu steuern. (c) olly/ Fotolia
SAP Data Hub ermöglicht Kunden flow-basierte Daten-Pipelines aufzubauen, zu harmonisieren und zu steuern. (c) olly/ Fotolia

Die Komplettlösung zur Orchestrierung der Datenverarbeitung sorgt Herstellerangaben zufolge für höhere betriebliche Effizienz und erlaubt es Unternehmen, die Potenziale der Digitalisierung umfassend zu nutzen. Die Ankündigung erfolgte auf der Technologiekonferenz SAP TechEd, die vom 2. bis 5. Oktober in Las Vegas stattfindet.

SAP Data Hub ermöglicht Kunden flow-basierte Daten-Pipelines aufzubauen, zu harmonisieren und zu steuern. Zudem lassen sich Daten maximal wiederverwenden und somit digitale Innovationen vorantreiben. Die neue Version bietet einen innovativen Metadatenkatalog und eine neuartige Richtlinienverwaltung. Die Metadaten werden zuverlässig ermittelt und aufbereitet und in einer bewährten Publishing-Umgebung dargestellt. Für die Anwender bedeutet dies, sie können auf einfache Weise mehr Informationen aus weit verteilten Systemen extrahieren, zum Beispiel aus Hybrid- und Multi-CloudUmgebungen.

„SAP Data Hub ist die zentrale Lösung zur Verarbeitung verteilter Daten in der SAP HANA Data Management Suite, unserem durchgängigen, offenen Data Framework zur Erstellung intelligenter Anwendungen, die passenden Daten den richtigen Benutzern zur richtigen Zeit bereitstellen”, erklärt Franz Färber, Executive Vice President, Big Data, Products & Innovation, SAP. „Seit der Vorstellung von SAP Data Hub vor einem Jahr haben SAP-Kunden und -Partner die Vorteile der Lösung für das intelligente Unternehmen erkannt. Sie sind damit in der Lage, die Datentransparenz zu erhöhen, ihre Datenlandschaften zu optimieren und gleichzeitig ihre bestehenden Investitionen zu nutzen. Ferner können sie neue Datenprozesse entwickeln, die maschinelles Lernen, künstliche Intelligenz und Open-Source-Technologien umfassen.“

Mit SAP Data Hub lassen sich nun noch mehr Serverless-Computing-Dienste nutzen, so die Presseaussendung. Zudem bestehen neue Bereitstellungsmöglichkeiten bei Containern, erweiterte Optionen beim Ressourcen- und Anwendungsmanagement sowie bei der Implementierung und Portabilität in privaten und öffentlichen CloudUmgebungen. Ein neues, auf Workflows basierendes Design, macht es einfacher, neue Datenquellen einzubinden und komplexe Daten-Pipelines im gesamten Unternehmen zu erstellen und zu verwalten. Um das volle Potenzial der rasant wachsenden Datenmengen zu nutzen, unterstützt SAP Data Hub Open-Source-Technologien und führt alle jene Daten zusammen, die von Benutzern, Unternehmen und Geräten erzeugt werden – im Zusammenspiel von IoT, maschinellem Lernen, künstlicher Intelligenz, Data Warehouses, Data Lakes, Data Marts und Unternehmensanwendungen. SAP Data Hub bietet Anwendern eine zentrale, umfassende Sicht auf ihre Datenverarbeitungsprozesse.

Kaeser Kompressoren, ein führender Hersteller von Druckluftsystemen, nutzt SAP Data Hub, um IoT-Daten zu erfassen, zu präzisieren und sie mit Geräte- und Kundendaten aus der Datenplattform SAP S/4HANA und SAP HANA zu integrieren. Mit höherer Produktivität, flexibleren Datenaktivitäten und verbesserter Meldungsbearbeitung erreicht Kaeser nun eine wesentlich höhere Kundenzufriedenheit. Der Produktsupport und das technische Produktdesign konnten deutlich optimiert werden.

„Unsere bisherige Architektur war nicht geeignet für große Datenmengen, die Verarbeitung von IoT-Daten war mit beträchtlichem Aufwand verbunden“, sagte Falko Lameter, CIO von Kaeser Kompressoren. „SAP Data Hub löst dieses Problem mit der Skalierbarkeit und Flexibilität einer Serverless-Architektur und der Möglichkeit, leistungsstarke Datenpipelines zu modellieren. So haben wir mehr Transparenz und Kontrolle – ohne die hohen Kosten der Datenübermittlung. Indem wir IoT-Daten mit unseren Kundendaten integrieren, agieren wir wie ein intelligentes Unternehmen, das seinen Kunden echten Mehrwert bietet.“


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*