SAP Hana und Terracotta: In-Memory-Konzepte im Vergleich

In-Memory Data Management-Systeme dienen unterschiedlichen Zwecken. Geht es primär um analytische SAP-Daten, bietet sich die Appliance HANA an. Für vorwiegend transaktionale Java-Anwendungsdaten offeriert die Software AG das Programmpaket Terracotta. [...]

KÜNFTIGE ANNÄHERUNG
Die bislang klar abgesteckten Marktbereiche werden wohl in näherer Zukunft neu „verhandelt“ werden müssen, denn beide Hersteller haben die Weiterentwicklung ihrer Lösungen angekündigt – und sie nähern sich einander an.
„Unsere Vision ist eine anwendungsunabhängige In-Memory-Plattform für das Datenmanagement, die eine Brücke zwischen den Anforderungen von Transaktionssystemen auf der einen und Analysesystemen auf der anderen Seite schlägt“, erläutert Jost. Konkret bedeute das, die Integration des Data Grids mit der eigenen CEP-Engine (Complex Event Processing), um Ereignisse in Echtzeit zu analysieren, und der neuen Low-Latency Messaging-Technologie, um Datenströme in Echtzeit zu übertragen. Auf den in Terracotta vorhandenen Datenbeständen sollen sich dann Echtzeitanalysen mit der CEP-Engine durchführen lassen. Damit würde die Software AG Real-time Analytics für die Java-Welt offerieren. Darüber hinaus wollen die Darmstädter die Verarbeitung von Daten aus mehreren Datenumgebungen – Transaktionssystemen, Analysesystemen, relationalen und nicht-relationalen Datenbanken und Social Networks – in einem gemeinsamen In-Memory-Speicher ermöglichen.
Aber auch SAP will seine HANA-Appliance erweitern und als Datenbanksystem für transaktionale Daten, etwa aus der Warenwirtschaft, etablieren. Bis zum Ende des Jahres soll dies für die eigenen Anwendungen möglich sein. Schließlich wollen die Walldorfer Hana für einen größeren Markt öffnen und als Entwicklungsplattform für Drittanwendungen anbieten.
Die Einbindung des Open-Source-Frameworks Hadoop steht auf der kurzfristigen Roadmap beider Hersteller. Hadoop kann sehr große Datenmengen im Petabyte-Bereich verarbeiten und ist somit ein interessantes Angebot für Big-Data-Analysen. Das Framework umfasst neben NoSQL- auch eine SQL-Schnittstelle, denn diese Riesendatenmengen bestehen zumeist aus einer Mischung aus relationalen und nicht-relationalen Daten und lassen sich zum Teil also auch mit SQL-Anwendungen analysieren.
„Wir werden uns tendenziell auch künftig in unterschiedlichen Bereichen bewegen“, erklärt Jost die Abgrenzung der beiden In-Memory-Datenmanagement-Produkte. „Die Software AG in der Welt der Non-SAP-Anwendungen in Verbindung mit hoch skalierbaren, verteilten Speicherstrukturen für beliebige Datenformate und SAP mit einem eher spaltenorientierten Datenbankansatz und SQL in der SAP Anwendungswelt.“
* Susanne Franke ist Redakteurin der deutschen Computerwoche.


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*