Hochverfügbarkeit im Data Warehouse

Themen wie Hochverfügbarkeit und fehlertolerante IT-Architekturen werden dabei auch im Zusammenhang mit dem Data Warehouse (DWH) immer wichtiger. Eine Übersicht. [...]

Big Data, Small Data, Sensor- oder Log-Daten, strukturiert oder unstrukturiert – deutsche Unternehmen nutzen endlich ihre Informationen: Bei vier Fünfteln basieren Unternehmensentscheidungen auf Datenanalysen, so eine Studie. In modernen Data-Warehouse-Architekturen sollten heute Informationen zentral, sicher, indexiert und bereits vorsortiert für weiterführende Analysen vorliegen. Doch was ist, wenn beispielsweise ein Server ausfällt oder ein Netzteil in Rauch aufgeht? Themen wie Hochverfügbarkeit und fehlertolerante IT-Architekturen werden dabei auch im Zusammenhang mit dem Data Warehouse (DWH) immer wichtiger und beschäftigen Big-Data-und DWH-Experten wie Markus Ruf von der mip GmbH.
„Die frühere Ansicht, dass Daten nicht unbedingt hochverfügbar sein müssen, da ja Unternehmen ohne sie bzw. ohne Auswertungen und Analysen weiter funktionieren können, zählt heute nur noch eingeschränkt“, erklärt Ruf. Zwar haben immer noch die tatsächlich wertschöpfenden Prozesse Priorität. Jedoch sind in der Zwischenzeit Informationen sowie Datenanalysen teilweise selbst zu wertschöpfenden Prozessen in Unternehmen geworden. Vortages- oder Tagesauswertungen gehören zu wichtigen Entscheidungshilfen für Vorstände, Management und Unternehmensführung, genauso wie für Abteilungen. „Daten etwa zum Kundenverhalten sind heute wesentlich für aktuelle sowie künftige Entwicklungen und Trends – Stichwort: Predictive Analytics“, so Ruf.
Hochverfügbares Data Warehouse: Welche Variante macht Sinn?
Auch wenn bei einem Ausfall die Firma nicht gleich zusammenbricht, ist ein hochverfügbares DWH sinnvoll. Welche Methode bzw. Hochverfügbarkeitsstrategie sich hierfür am besten eignet, muss von Fall zu Fall am besten zusammen mit DWH-Experten geprüft werden: Wie lange darf mein DWH im Jahr höchstens ausfallen? Müssen die Daten 24 Stunden am Tag, 7 Tage die Woche vorliegen? Damit hängt meist auch die Frage zusammen, wie viel das Thema Hochverfügbarkeit überhaupt kosten darf.
Sehr häufig wird ein Data Warehouse nur tagesaktuell genutzt. Aber selbst wenn bei einem Ausfall die Berechnungen und Auswertungen über Nacht nicht stattfinden können, weil kein paralleler bzw. gespiegelter DWH-Aufbau vorliegt, lassen sich die Informationen aus den operationalen Daten wiedergewinnen. „Eine Herausforderung ist jedoch, dass einige Firmen ihre Daten direkt im Data Warehouse archivieren und so nicht mehr alles aus dem operativen System rekonstruieren können“, erklärt Ruf. „Hier ist es deshalb entscheidend, dass die Informationen zum Beispiel auf einem parallel betriebenen DWH oder in der Cloud gesichert sind.“


Mehr Artikel

News

Künstliche Intelligenz kommt auf Endgeräten an

Das Jahr 2025 wird an vielen Stellen für Umbrüche und Neuerungen sorgen. Ein genereller Trend ist dabei der weiter greifende Einsatz von KI-Funktionen: Unternehmen werden immer mehr Anwendungsfälle erkennen sowie implementieren – und dabei auch verstärkt auf lokale KI-Ressourcen und On-Prem-Hardware zurückgreifen. […]

News

7 KI-Trends, die das Jahr 2025 prägen werden

2025 wird wegweisend für die Weiterentwicklung der Künstlichen Intelligenz. Experten weltweit arbeiten daran, KI praxisnäher, präziser und vertrauenswürdiger zu machen. Mit besonderem Blick auf Datenarbeit skizziert Michael Berthold, CEO von KNIME, sieben wichtige Trends. […]

Florian Brence, Partner bei Deloitte Österreich (c) Deloitte
News

Diese Trends bestimmen die Tech-Welt 2025

Deloitte-Analyse: Auch wenn der erste mediale Hype vorbei ist, wird vor allem das Thema Generative Artificial Intelligence (GenAI) den Markt in den kommenden Monaten aufmischen. Die Branche muss sich auf einen Umbruch einstellen, der neben Chancen und Potenzialen auch einige Herausforderungen bringen wird. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*