In-Memory-Konzepte im Vergleich

In-Memory-Systeme sollen dabei helfen, Big Data im Griff zu haben. Doch welche Angebote eignen sich für welche Zwecke? [...]

Immer größere und neue Datenberge übersteigen oft die Verarbeitungskapazitäten von herkömmlichen Festplatten-basierenden Datenbankensystemen bezüglich Durchsatz, Performanz und Flexibilität. Eine der Antworten auf diese Herausforderungen besteht darin, das Datenmanagement von der Festplatte in den Hauptspeicher (In-Memory) zu verlagern. In-Memory-Technologien erlauben es, hohe Datenvolumina direkt im Hauptspeicher vorzuhalten und dort mit großer Geschwindigkeit zu verarbeiten.

Auf den ersten Blick scheinen alle In-Memory-Angebote in dieselbe Richtung zu gehen. Unterschiede zeigen sich erst bei näherem Hinsehen. Am Beispiel der In-Memory-Datenmanagementlösungen SAP HANA und Terracotta (Software AG) lassen sich sowohl Gemeinsamkeiten aufzeigen, als auch unterschiedlichen Einsatzszenarien, die durch die Architekturen und Funktionen der Lösungen bedingt sind.

Die HANA-Appliance von SAP dient derzeit in erster Linie der raschen Analyse von vorwiegend aus SAP-Umgebungen stammenden Daten abgeschlossener Transaktionen. Die schnellen HANA-basierenden Anwendungen ersetzen bisherige SAP-BW-Prozesse (Business Warehouse) oder beschleunigen datenintensive Verarbeitungen in SAP-Anwendungen (etwa HANA FI-CO und CO-PA Accelerators).

Die Software AG wiederum zielt mit der In-Memory-Lösung Terracotta auf Unternehmen, die beispielsweise in ihren Zahlungssystemen, bei Bonitätsprüfungen oder bei Prüfungen auf Kreditkartenbetrug mit herkömmlichen Java/Datenbank-Architekturen an ihre Performance- und Skalierbarkeitsgrenzen stoßen. Mit der Lösung sollen diese Anwender Terabytes an Daten im Arbeitsspeicher im Zugriff haben und damit das hohe Transaktionsaufkommen und steigende Nutzerzahlen im Griff behalten. Vorstellbar ist etwa ein Reisebuchungssystem im Internet, das die Verfügbarkeit von Flügen oder Hotels schnell prüfen kann sowie auch Änderungen sofort im Zugriff haben muss.

SAP und die Software AG verfolgen mit ihren Lösungen dasselbe übergeordnete Ziel: In-Memory-Datenmanagement soll bestehende Anwendungsarchitekturen erweitern und optimieren sowie neue Architekturen ermöglichen, die dann auch ohne Datenverarbeitung über die Festplatte auskommen. Doch abgesehen von diesen eher strategischen Gemeinsamkeiten gehen die beiden Unternehmen unterschiedliche Wege. Gartner macht mehrere grundsätzliche Typen von In-Memory-Technologien aus, und zwar abhängig von der Art ihres Einsatzbereichs. Dazu gehören die In-Memory-Datenbankmanagement-Systeme, zu denen auch HANA mit dem In-Memory Datamart zählt. Diese Systeme halten die gesamte Datenbankstruktur im Hauptspeicher vor und nutzen den gegenüber Festplatten erheblich schneller zugreifbaren Arbeitsspeicher zur Datenspeicherung und -auswertung. Das ist vor allem dort gefragt, wo kurze Antwortzeiten benötigt werden: Im Finanzwesen zum Beispiel, wenn Informationen über sich ändernde Marktbedingungen eintreffen und Entscheidungen innerhalb von Sekunden getroffen werden müssen.

Einen zweiten Typ von In-Memory­Datenmanagement-Technologien stellen die von Analysten als Data Grids bezeichneten Plattformen mit verteiltem Caching dar. Lösungen dieser Art vereinen mehrere Server in einem logischen Caching-Cluster, in dem die Daten ausfallsicher und schnell Anwendungen zur ­Verfügung stehen. Dieser Art lässt sich Terracotta zuordnen. Die Zuordnung zeigt, dass die beiden hier ­dargestellten Lösungen in zwei verschiedenen Welten zu Hause sind und dort ihre jeweiligen Vorteile liefern: Terracotta in der Java-Welt mit transaktionsintensiven oder zeitkritischen Anwendungen, Hana in der SAP-Welt mit analytischen Anwendungen.

Die reine Softwarelösung Terracotta lässt Anwendungen auf Basis der verteilten Server-Knoten unter Einsatz von Standardhardware hoch skalieren. Die Architektur lässt sich durch das Hinzufügen von zusätzlichen Servern erweitern. Die verteilte Caching-Architektur zeigt ihre Vorteile vor allem bei solchen Java-Anwendungen, wie sie häufig im Web anzutreffen sind, in denen die Verarbeitung der Zugriffe und der Transaktionsdaten beschleunigt werden soll. Mit der Appliance SAP HANA lassen sich laut Hersteller Daten in Echtzeit untersuchen. Die Appliance zieht ihre Performance unter anderem aus speziell aufeinander abgestimmten Hard- und Softwarekomponenten. Damit ist eine hohe Leistung offensichtlich, doch sind Anwender an eine bestimmte Hardwarearchitektur gebunden, die sich allerdings auch erweitern lässt. Als Software kommt ein Hybrid aus der bei In-Memory-Datenbanken üblichen spaltenorientierten, bei Lesezugriffen schnelleren Arbeitsweise und darunter liegend der herkömmlichen, in relationalen Datenbanken verbreiteten und bei Schreibzugriffen bevorzugten zeilenorientierten Datenbanktechnik zum Einsatz. Die Spaltenorientierung ist gerade für die Analysen wichtig, während die zeilenorientierte Arbeitsweise SAP für die geplante Erweiterung auf transaktionale Daten dienlich ist.

Wegen der gemeinsamen Zielsetzung bei unterschiedlichen Ansätzen bezeichnet Wolfram Jost, Technologievorstand der Software AG, Terracotta und HANA sogar als komplementäre Produkte. „Es gibt zwar klare Positionierungsmöglichkeiten für HANA und für Terracotta. Diese aber können sogar beim gleichen Kunden gegeben sein, wenn auch normalerweise nicht im selben Bereich“, erklärt Jost. Denkbar wäre aus seiner Sicht eine Java/Oracle-Applikation, die die transaktionalen Daten mit der Terracotta-Technologie verarbeitet, und die in gewissen Zeitabständen Daten für die Echtzeitanalyse in eine HANA-Appliance transportiert. HANA könne zwar Daten aus Nicht-SAP-Systemen integrieren, sei aber darauf angewiesen, dass die Daten schnell angeliefert werden. Hier könne Terracotta einen Geschwindigkeitsvorteil bieten.

REALTIME ANALYTICS
Die bislang klar abgesteckten Marktbereiche werden wohl in näherer Zukunft neu verhandelt werden müssen, denn beide Hersteller haben die Weiterentwicklung ihrer Lösungen angekündigt – und sie nähern sich einander an. „Unsere Vision ist eine anwendungsunabhängige In-Memory-Plattform für das Datenmanagement, die eine Brücke zwischen den Anforderungen von Transaktionssystemen auf der einen und Analysesystemen auf der anderen Seite schlägt“, erläutert Jost. Konkret bedeute das die Integration des Data Grids mit der eigenen CEP-Engine (Complex Event Processing), um Ereignisse in Echtzeit zu analysieren, und der neuen Low-Latency-Messaging-Technologie, um Datenströme in Echtzeit zu übertragen. Auf den in Terracotta vorhandenen Datenbeständen sollen sich dann Echtzeitanalysen mit der CEP-Engine durchführen lassen. Damit würde die Software AG Realtime Analytics für die Java-Welt offerieren. Darüber hinaus will das Unternehmen die Verarbeitung von Daten aus mehreren Datenumgebungen – Transaktionssysteme, Analysesysteme, relationale und nicht-relationale Datenbanken und Social Networks – in einem gemeinsamen In-Memory-Speicher ermöglichen.

Aber auch SAP will seine HANA-Appliance erweitern und als Datenbanksystem für transaktionale Daten, etwa aus der Warenwirtschaft, etablieren. Bis zum Ende des Jahres soll dies für die eigenen Anwendungen möglich sein. Schließlich will das Unternehmen HANA für einen größeren Markt öffnen und als Entwicklungsplattform für Drittanwendungen anbieten.

Die Einbindung des Open-Source-Frameworks Hadoop steht auf der kurzfristigen Roadmap beider Hersteller. Hadoop kann sehr große Datenmengen im Petabyte-Bereich verarbeiten und ist somit ein interessantes Angebot für Big-Data-Analysen. Das Framework umfasst neben NoSQL- auch eine SQL-Schnittstelle, denn diese Riesendatenmengen bestehen zumeist aus einer Mischung aus relationalen und nicht-relationalen Daten und lassen sich zum Teil also auch mit SQL-Anwendungen analysieren. (idg/oli)


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*