SAP Hana und Terracotta: In-Memory-Konzepte im Vergleich

In-Memory Data Management-Systeme dienen unterschiedlichen Zwecken. Geht es primär um analytische SAP-Daten, bietet sich die Appliance HANA an. Für vorwiegend transaktionale Java-Anwendungsdaten offeriert die Software AG das Programmpaket Terracotta. [...]

Informationen bilden die Basis für anhaltende geschäftliche Erfolge. Die Herausforderung für Unternehmen: Große Mengen operativer Daten müssen in kürzester Zeit verarbeitet werden, damit sie jederzeit aktuell bereit stehen – und das für jeden einzelnen Geschäftsvorgang. Aber auch neue Dienstleistungen, beispielsweise die automatische Nachverfolgung von Benutzerinteraktionen in Online-Anwendungen (etwa Amazons Empfehlungen für jeden Kunden), und die permanente Verbesserung von Geschäftsprozessen erfordern die Verarbeitung von immer mehr Informationen. Dennoch darf die Wartezeit nicht größer werden -das heißt, es müssen viel mehr Daten in kürzerer Zeit verarbeitet werden.
Diese großen Volumina auch an neuen Daten übersteigen häufig die Verarbeitungskapazitäten von herkömmlichen Festplatten-basierten Datenbankensystemen bezüglich Durchsatz, Performanz oder Flexibilität. Eine der Antworten auf diese Herausforderungen besteht darin, das Datenmanagement von der Festplatte in den Hauptspeicher (In-Memory) zu verlagern. In-Memory-Technologien erlauben es, hohe Datenvolumina direkt im Hauptspeicher vorzuhalten und dort mit großer Geschwindigkeit zu verarbeiten. Das In-Memory Data Management ist in den letzten Jahren dank der Verfügbarkeit von riesigen Hauptspeichern bei sinkenden Kosten zu einem Angebot gereift, das Unternehmen eine extreme Beschleunigung und eine hohe Skalierbarkeit des Datenmanagements verspricht. Unterm Strich sollen damit neue Geschäftsabläufe und schnellere Entscheidungsprozesse ermöglicht werden.
Wie häufig, wenn es um ein neues IT-Thema geht, beanspruchen auch dieses Mal viele unterschiedliche Hersteller In-Memory Computing für sich. Auf den ersten Blick scheinen auch alle Angebote in dieselbe Richtung zu gehen. Unterschiede zeigen sich erst bei näherem Hinsehen. Am Beispiel der beiden In-Memory-Datenmanagementlösungen SAP Hana und Terracotta von der Software AG lassen sich sowohl Gemeinsamkeiten aufzeigen, die In-Memory-Produkte verbinden, als auch unterschiedlichen Einsatzszenarien, die durch die Architekturen und Funktionen der Lösungen bedingt sind.
SAP hat mit Hana (High Performance Analytic Appliance) das Thema In-Memory-Computing in den Fokus gerückt. Die SAP-Appliance dient derzeit in erster Linie der raschen Analyse von vorwiegend aus SAP-Umgebung stammenden Daten abgeschlossener Transaktionen. Die sehr schnellen Hana-basierten Anwendungen ersetzen hauptsächlich vorherige SAP-BW-Prozesse (Business Warehouse) oder beschleunigen datenintensive Verarbeitungen in SAP-Anwendungen (zum Beispiel HANA FI-CO and CO-PA Accelerators).
Die Software AG wiederum zielt mit der In-Memory-Lösung Terracotta auf Unternehmen, die beispielsweise in ihren Zahlungssystemen, bei Bonitätsprüfungen oder bei Prüfungen auf Kreditkartenbetrug mit herkömmlichen Java/Datenbank-Architekturen an ihre Performance- und Skalierbarkeitsgrenzen stoßen. Mit der Lösung sollen diese Anwender Terabytes an Daten im Arbeitsspeicher im Zugriff haben und damit das hohe Transaktionsaufkommen und steigende Nutzerzahlen im Griff behalten. Vorstellbar ist etwa ein Reisebuchungssystem im Internet, das die Verfügbarkeit von Flügen, Hotels und anderem schnell prüfen kann sowie auch Änderungen sofort im Zugriff haben muss. Mit der Verfügbarkeit der Daten In-Memory könnte ein solches Reiseunternehmen seinen Partnern ganz andere SLAs bezüglich der Antwortzeiten anbieten.
SAP und die Software AG verfolgen mit ihren Lösungen dasselbe übergeordnete Ziel: Das In-Memory-Datenmanagement soll bestehende Anwendungsarchitekturen erweitern und optimieren sowie neue Architekturen ermöglichen, die dann auch ohne herkömmliche Datenverarbeitung über die Festplatte auskommen.
Doch abgesehen von diesen eher strategischen Gemeinsamkeiten gehen die beiden Unternehmen im Rahmen des In-Memory-Computings unterschiedliche Wege: Analysten von Gartner etwa machen mehrere grundsätzliche Typen der In-Memory-Datenmanagement-Technologien aus, und zwar abhängig von der Art ihres Einsatzbereichs. Dazu gehören die In-Memory-Datenbankmanagement-Systeme, zu denen auch SAP Hana mit dem In-Memory Datamart zählt. Diese Systeme halten die gesamte Datenbankstruktur im Hauptspeicher vor und nutzen den gegenüber der Festplatte erheblich schneller zugreifbaren Arbeitsspeicher des Computers zur Datenspeicherung und -auswertung. Das ist vor allem dort gefragt, wo kurze Antwortzeiten benötigt werden: im Finanzwesen zum Beispiel, wenn Informationen über sich plötzlich ändernde Marktbedingungen eintreffen und Entscheidungen innerhalb von Sekunden getroffen werden müssen.
Einen zweiten Typ von In-Memory-Datenmanagement-Technologien stellen die von den Analysten als Data Grids bezeichneten Plattformen mit verteiltem Caching dar. Lösungen dieser Art vereinen mehrere Server in einem logischen Caching-Cluster, in dem die Daten ausfallsicher und schnell Anwendungen zur Verfügung stehen. Dieser Art lässt sich Terracotta zuordnen.
Die Zuordnung zeigt auch bereits, dass die beiden hier dargestellten Lösungen in zwei verschiedene Welten zu Hause sind und da ihre jeweiligen Vorteile liefern: Terracotta in der Java-Welt mit transaktionsintensiven oder zeitkritischen Anwendungen, Hana in der SAP-Welt mit analytischen Anwendungen.
SOFTWARE ODER APPLIANCE?
Die reine Softwarelösung Terracotta lässt Anwendungen auf Basis der verteilten Server-Knoten unter Einsatz von Standardhardware hoch skalieren. Die Architektur lässt sich durch das Hinzufügen von zusätzlichen Servern erweitern. Die verteilte Caching-Architektur zeigt ihre Vorteile vor allem bei solchen Java-Anwendungen, wie sie häufig im Web anzutreffen sind, in denen die Verarbeitung der Zugriffe und der Transaktionsdaten stark beschleunigt werden soll. Mit der Appliance SAP Hana lassen sich laut Hersteller Daten in Echtzeit untersuchen. Die Appliance zieht ihre Performance unter anderem aus speziell aufeinander abgestimmten Hard- und Softwarekomponenten. Damit ist eine hohe Leistung offensichtlich, doch sind Anwender an eine bestimmte Hardwarearchitektur gebunden, die sich allerdings auch erweitern lässt. Als Software kommt ein Hybrid aus der bei In-Memory-Datenbanken üblichen spaltenorientierten, bei Lesezugriffen schnelleren Arbeitsweise und – darunter liegend – der herkömmlichen, in relationalen Datenbanken verbreiteten, bei Schreibzugriffen bevorzugten zeilenorientierten Datenbanktechnik zum Einsatz. Die spaltenorientierte Technik ist gerade für die Analysen wichtig, während die zeilenorientierte Arbeitsweise SAP für die geplante Erweiterung auf transaktionale Daten dienlich ist.
Wegen der gemeinsamen Zielsetzung bei unterschiedlichen Ansätzen bezeichnet Wolfram Jost, Technologievorstand der Software AG, Terracotta und Hana sogar als komplementäre Produkte. Die IDS Scheer Consulting der Software AG betreibt auch ein Center of Excellence für Hana. „Es gibt zwar klare Positionierungsmöglichkeiten für SAP Hana und für Terracotta. Diese aber können sogar beim gleichen Kunden gegeben sein, wenn auch normalerweise nicht im selben Bereich“, so Jost. Denkbar wäre aus seiner Sicht eine Java/Oracle-Applikation, die die transaktionalen Daten mit der Terracotta-Technologie verarbeitet, und die in gewissen Zeitabständen Daten für die Echtzeitanalyse in eine Hana-Appliance transportiert. SAP HANA könne zwar Daten aus nicht-SAP Systemen integrieren, sei aber darauf angewiesen, dass die Daten schnell angeliefert werden – hier könne Terracotta einen Geschwindigkeitsvorteil bieten.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*