Mit ihrem neuen Data Hub will SAP das Daten-Handling vereinfachen. Über Datenpipelines sollen Anwender die Datenflüsse und -bearbeitung lenken und steuern können. Dabei bleiben die Daten an ihrem ursprünglichen Ablageort. [...]
Irfan Khan, verantwortlich für den Vertrieb der Datenbank- und Datenmanagement-Systeme bei SAP, beschrieb den Data Hub als einen zentralen Layer und umfassenden Schirm für das Datenmanagement. Unternehmen erhielten damit einen Überblick und Zugriff auf sämtlichen Daten in ihrer Organisation. Allerdings müssten diese Daten nicht zuerst in einem zentralen System zusammengefasst und gelagert werden. Zugriff und Verarbeitung der Daten erfolgten an ihren jeweiligen Ablageorten, sagte Khan.
Zentraler Bestandteil der Datendrehscheibe sind die sogenannten Datenpipelines. Entwickler können SAP zufolge im Data Hub verschiedene Modelle für Datenpipelines entwickeln, über die sich Informationen aus unterschiedlichsten Quellen in der gesamten Organisation abrufen, harmonisieren, transformieren und verarbeiten lassen. Darüber hinaus lassen sich verschiedene Aktivitäten und Funktionen direkt in die entsprechenden Pipelines integrieren, beispielsweise Bibliotheken für Berechnungen und Machine Learning wie Googles TensorFlow. Rechen- und Verarbeitungsprozesse würden damit direkt an den Ort verlagert, wo die Daten liegen. Das ist der Unterschied zu klassischen Datenarchitekturen, in denen Daten in aller Regel via ETL-Prozessen (Extract, Transform, Load) zunächst in einem zentralen Daten-Lager wie einem Data Warehouse oder Hadoop-System gesammelt und dann dort weiter verarbeitet werden. Um die Entwicklung und Implementierung der Datenpipelines zu vereinfachen, sollen sich die Modelle im SAP Data Hub einfach kopieren, modifizieren und wiederverwenden lassen.
SAP wird seinen Data Hub zunächst klassisch als On-Premise-Software anbieten, die in den Rechenzentren der Anwenderunternehmen installiert wird. Die Architektur des Data Hub sei jedoch Cloud-ready, hieß es. Versionen für Platform as a Service (PaaS) sowie Software as a Service (SaaS) sollen im Rahmen der nächsten Releases folgen, kündigten die SAP-Verantwortlichen an. Anwender könnten SAP zufolge ihre bestehenden Datenwerkzeuge von SAP wie SAP Data Services, SAP HANA Smart Data Integration, Data Virtualization oder Data Replication weiter nutzen. Mit dem Data Hub erhielten sie jedoch ein Werkzeug, mit dem sich sämtliche Datenprozesse auf einer einzelnen Plattform überblicken ließen, beschreibt der Hersteller den Vorteil der neuen Lösung.
„Es wird immer schwieriger, Wertschöpfung aus den eigenen Daten zu ziehen, weil sich die zugrundeliegenden Systeme immer stärker verzweigten“, konstatierte SAP-Chef Bill McDermott. Das sei ein Schmerzpunkt, der sich quer durch alle Branchen und Industrien beobachten lasse. SAP hat im Rahmen der Studie „Data 2020: State of Big Data“ rund 500 Entscheider in Australien, Brasilien, China, Deutschland, Frankreich, Großbritannien Japan, Kanada und den USA vom US-Marktforschungsunternehmen Regina Corso Consulting befragen lassen. Zentrales Ergebnis: Fragmentierte und isolierte IT-Umgebungen erschwerten fundierte Geschäftsentscheidungen. Demzufolge gaben fast drei Viertel der Befragten an, ihre Datenlandschaft sei so komplex, dass die eigene Flexibilität beeinträchtigt werde. 86 Prozent erklärten, sie könnten das Potenzial ihrer Daten nicht maximal ausschöpfen.
Be the first to comment