Engineered System oder Zukäufe: Die Big-Data-Strategien von SAP und Oracle

Die ERP-Marktführer Oracle und SAP feilen an ihren Big-Data-Angeboten. Analysten von Experton und Gartner erläutern die Schwerpunkte und Strategien der beiden Softwarehersteller, die auf die Big-Data-Platzhirsche IBM und SAS Boden gut machen wollen. [...]

In fast jedem Unternehmen fallen heute neben zahlreichen strukturierten Daten auch zahllose unstrukturierte Informationen aus sozialen Medien, Videos, Präsentationen, Texten, Sensoren an Maschinen, Barcodes, RFID-Chips oder Geo-Daten an. Diese Datenmengen steigen stetig – Big Data eben. 2012 soll die weltweite Datenproduktion laut einer Studie des Fraunhofer-Instituts für Intelligente Analyse- und Informationssysteme (IAIS) 1,8 Zettabyte betragen haben.
AUS DATEN VERBORGENE ZUSAMMENHÄNGE LESEN
Big Data ist aber nicht nur mit einer großen Menge fragmentierter Daten gleichzusetzen, es schließt auch die hohe Geschwindigkeit ein mit der die Daten entstehen, wie etwa beim elektronischen Ablesen von Stromzählermessdaten im Viertelstundentakt. Auch durch die Nutzung sozialer Medien werden täglich große Datenmengen produziert – allein bei Twitter sind es mehr als 8 Terabyte (TB). „Unternehmen, die geschäftlichen Mehrwert aus Big Data ziehen wollen, müssen in der Lage sein, große und fragmentierte Datenmengen zu sammeln, sinnvoll zu verwalten, und die Daten so miteinander verknüpfen und in Beziehung setzen, dass sich daraus neue Einsichten gewinnen oder verborgene Zusammenhänge erkennen lassen“, sagt Holm Landrock, Senior Advisor bei der Research- und Beratungsfirma Experton Group.
Das ist zum Beispiel der Fall, wenn Handelsunternehmen Daten aus Interaktionen von Kunden auf den verschiedenen Kontaktkanälen mit Kundenäußerungen auf sozialen Netzwerken wie Facebook oder Twitter verknüpfen, explorieren und auswerten. Die gewonnenen Erkenntnisse lassen sich nutzen, um die Kundensegmentierung feinmaschiger zu gestalten, Marketing-Kampagnen präziser zu planen und auszuführen, sowie die Preisfindung und Bestandsverwaltung zielgerichteter zu gestalten. Damit aus der unübersichtlichen Datenmasse geschäftlich relevantes Wissen erschlossen und zugleich sehr zeitnah, das heißt nahezu in Echtzeit, analysiert werden kann, sind neue Ansätze und Technologien für die Datenspeicherung und Business Analytics nötig.
BIG-DATA-ANSÄTZE VON SAP UND ORACLE VARIIEREN
Alle namhaften Softwarehersteller feilen daher an Big-Data-Angeboten, weil sie hier neues Umsatzpotenzial wittern. Neben IBM, Hewlett-Packard, Dell oder SAS zählen dazu natürlich auch die Dauerrivalen Oracle und SAP. Beide Unternehmen verfolgen bei ihren Angeboten zur Verwaltung und Analyse von Big Data jedoch unterschiedliche Ansätze.
„Oracle geht das Thema von der Datenbankebene aus an, SAP kommt von der Anwendungsebene und fokussiert sich bei Big Data auf seine In-Memory-Technik“, erklärt Alexander Linden, Research Director für Advanced Analytics und Data Science beim Research- und Beratungshaus Gartner.
IBM UND SAS HABEN DIE NASE VORN
Einig sind sich Experton-Berater Landrock und Gartner-Analyst Linden, dass Oracle und SAP im Big-Data-Markt derzeit nicht die erste Geige spielen, sondern deutlich hinter IBM oder SAS rangieren. Das zeigen auch die Ergebnisse des von Experton durchgeführten „Big Data Vendor Benchmark 2013“. Ebenso werden in der aktuellen „Managing-Big-Data-Studie“ des Data Warehousing Institute (TDWI) weder Oracle noch SAP als „Leader“ bezeichnet. Dennoch lohnt sich ein Blick auf die Angebote der Erzrivalen.
ENGINEERED-SYSTEM-PRINZIP VON ORACLE
Oracle bietet eine Big-Data-Appliance an, die aus verschiedenen Softwarekomponenten und vorkonfigurierter Hardware besteht. „Grundgedanke in der Big-Data-Strategie von Oracle ist, das Datenwachstum der kommenden Jahre durch ein Engineered System zu bewältigen“, verdeutlicht Landrock. Das heißt: Big Data wird in eine bestehende IT-Architektur einbezogen, die laufend weiterentwickelt wird. Hardwareseitig ist die Oracle-Appliance zurzeit standardmäßig als Rack mit 18 Sun-Servern konfiguriert und hat eine Gesamtspeicherkapazität von 648 TB.
Softwareseitig setzt der US-Konzern auf seine NoSQL-Datenbank in der „Community Edition“ und die „Cloudera Distribution for Hadoop“ (CDH4) als Tool-Sammlung zur Installation von Hadoop-Komponenten sowie den „Cloudera Manager“ zur Verwaltung und Kontrolle der Hadoop-Cluster. Auch die freie Programmiersprache „R“ für statistische Analysen ist integrierter Bestandteil der Appliance. Als Betriebssystem dient der Oracle-Linux-Server in Verbindung mit der Java Virtual Machine des Herstellers.
KONNEKTOREN FÜR EXADATA UND HADOOP
Hinzu kommen spezielle Konnektoren, etwa für den Datentransfer in Oracles Exadata-Datenbankplattform, um dort Big-Data-Analysen mit dem hauseigenen Exalytics-Business-Intelligence-(BI-)-System betreiben zu können. Über weitere Konnektoren soll es möglich sein, Daten aus einem Hadoop-Cluster in die Oracle-Datenbank zu laden und in dieser zu analysieren oder mit „R“ statistische Problemstellungen direkt im Hadoop-Cluster per MapReduce zu beantworten.
„Oracle bringt viel Know-how im Bereich Business Analytics und Data Mining mit, betrachtet Big Data jedoch zu stark aus der Datenbankperspektive. Die Datenbank wird damit aber zum Flaschenhals, da alle für Big-Data-Analysen notwendigen Daten in sie übertragen und gespeichert werden müssen“, moniert Gartner-Analyst Linden. Das sei jedoch ein schwieriges Unterfangen, weil dann unter anderem auch Informationen aus sogenannten Makroaktionen in die Datenbank zu bringen seien. Unter Makroaktionen versteht Linden Ereignisse in einem Unternehmen, wie zum Beispiel die Änderung einer Hotline-Nummer.
SAP: BIG DATA MIT HANA, SYBASE, DARA SERVICES & CO.
SAP habe hingegen die Chance, die Datenbankproblematik zu umgehen, da das Unternehmen das Thema Big Data von der Applikationsebene her angeht, meint Linden. Der Walldorfer Softwarehersteller sei allerdings erst spät in den Big-Data-Markt eingestiegen und laufe nun der Entwicklung hinterher. SAP selbst bezeichnet seine eigene Big-Data-Plattform als „Realtime-Data-Platform“. Im Zentrum der Big-Data-Strategie steht die In-Memory-Lösung SAP HANA. Sie kann bei Bedarf mit Sybase-Produkten wie dem Analyse-Server Sybase IQ, dem Datenbanksystem Sybase ASE oder mit Hadoop verknüpft werden. Große Datenströme lassen sich in der Big-Data-Architektur von SAP mit dem Sybase Event Stream Processor (ESP) prozessieren und auswerten, um nahezu in Echtzeit auf veränderte Ereignisse reagieren zu können.
Einen weiteren zentralen Baustein im Big-Data-Angebot bilden die Data Services von SAP. Damit können beliebige Daten aus unterschiedlichen Datenspeichern extrahiert, transformiert und dann für Analysezwecke in HANA oder Sybase IQ geladen werden. Mit HANA lassen sich strukturierte Daten, etwa Absatzzahlen, sowie unstrukturierte Informationen wie Twitter-Feeds gleichzeitig analysieren, mit dem Ziel, verborgene Korrelationen aufzudecken. Die In-Memory-Lösung enthält zudem eine Predictive Analysis Library (PAL), die vordefinierte Algorithmen für die Bereiche Clustering, Klassifikation, Assoziation, Zeitreihen, Datenvorverarbeitung (Preprocessing), Social-Network-Analysen und Verschiedenes (ABC-Klassifikation, gewichtete Bewertungstabellen) bereitstellt. Die Einbindung von „R“ erweitert die analytischen Fähigkeiten von HANA zusätzlich.


Mehr Artikel

Rüdiger Linhart, Vorsitzender der Berufsgruppe IT der Fachgruppe UBIT Wien. (c) WeinwurmFotografie
Interview

IT-Berufe im Fokus: Innovative Lösungen gegen den Fachkräftemangel

Angesichts des anhaltenden IT-Fachkräftemangels ist schnelles Handeln gefordert. Die Fachgruppe IT der UBIT Wien setzt in einer Kampagne genau hier an: Mit einem breiten Ansatz soll das vielfältige Berufsbild attraktiver gemacht und innovative Ausbildungswege aufgezeigt werden. IT WELT.at hat dazu mit Rüdiger Linhart, Vorsitzender der Berufsgruppe IT der Fachgruppe UBIT Wien, ein Interview geführt. […]

News

ISO/IEC 27001 erhöht Informationssicherheit bei 81 Prozent der zertifizierten Unternehmen

Eine Umfrage unter 200 Personen verschiedener Branchen und Unternehmensgrößen in Österreich hat erstmals abgefragt, inwiefern der internationale Standard für Informationssicherheits-Managementsysteme (ISO/IEC 27001) bei der Bewältigung von Security-Problemen in der Praxis unterstützt. Ergebnis: Rund 81 Prozent der zertifizierten Unternehmen gaben an, dass sich durch die ISO/IEC 27001 die Informationssicherheit in ihrem Unternehmen erhöht hat. […]

News

Public Key Infrastructure: Best Practices für einen erfolgreichen Zertifikats-Widerruf

Um die Sicherheit ihrer Public Key Infrastructure (PKI) aufrecht zu erhalten, müssen PKI-Teams, sobald bei einer Zertifizierungsstelle eine Sicherheitslücke entdeckt worden ist, sämtliche betroffenen Zertifikate widerrufen. Ein wichtiger Vorgang, der zwar nicht regelmäßig, aber doch so häufig auftritt, dass es sich lohnt, PKI-Teams einige Best Practices für einen effektiven und effizienten Zertifikatswiderruf an die Hand zu geben. […]

News

UBIT Security-Talk: Cyberkriminalität wächst unaufhaltsam

Jedes Unternehmen, das IT-Systeme nutzt, ist potenziell gefährdet Opfer von Cyberkriminalität zu werden, denn die Bedrohung und die Anzahl der Hackerangriffe in Österreich nimmt stetig zu. Die Experts Group IT-Security der Wirtschaftskammer Salzburg lädt am 11. November 2024 zum „UBIT Security-Talk Cyber Defense“ ein, um Unternehmen in Salzburg zu unterstützen, sich besser gegen diese Bedrohungen zu wappnen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*