Hochverfügbarkeit im Data Warehouse

Themen wie Hochverfügbarkeit und fehlertolerante IT-Architekturen werden dabei auch im Zusammenhang mit dem Data Warehouse (DWH) immer wichtiger. Eine Übersicht. [...]

Synchron oder asynchron
Beim Thema Hochverfügbarkeit im Data Warehouse muss zudem im Vorfeld entschieden werden, ob dieser Bereich synchron oder asynchron aufgebaut werden soll. „Bei angestrebter Synchronität muss man stets darauf warten, bis alle Informationen geschrieben worden sind, was ein DWH langsam macht“, so Ruf. „Beim asynchronen Schreiben der Daten können diese allerdings verloren gehen, während sie ins DWH übernommen werden.“ Die wenigen so eingebüßten Datensätze lassen sich jedoch wieder per Datenrekonstruktion vervollständigen. Hier müssen sich Unternehmen entscheiden, ob sie nicht zugunsten einer höheren Performance eventuelle Datenverluste verschmerzen können.
Cloud und Hochverfügbarkeit
Geht es darum, Daten im Notfall dynamisch verschieben zu können, kommt beim Thema Hochverfügbarkeit die Cloud ins Spiel. Hierbei sind aber wieder zwei Seiten zu betrachten. Ruf: „Zum einen liegen die bekannten Cloud-Vorteile vor, wie etwa mehr Flexibilität durch eine bedarfsgerechte Speicherplatznutzung, ein höherer Sicherheitsstandard, den sich Firmen aus dem Mittelstand so gar nicht leisten können, und die wegfallenden bzw. geringeren Wartungs- sowie Administrationsaufwände.“ Wenn das komplette Data Warehouse in der Cloud aufbereitet wird, etwa als Database-as-a-Service (DBaaS), werden bestenfalls nur die Deltas aus den operativen Prozessen in die Cloud übertragen, wodurch keine Performance-Probleme auftreten. Allerdings könnten im schlechtesten Fall beide DWHs asynchron auseinanderlaufen.
„Arbeitet die Firma jedoch mit einem lokal aufgebauten Data Warehouse, welches zunächst alle Daten verarbeitet, um dann das gebündelte Gesamtvolumen zur Absicherung in die Cloud zu übertragen, kann sich dies auf die Performance auswirken“, beschreibt Ruf. Übertragungsgeschwindigkeiten von einem Gigabyte pro Sekunde reichen bei einem DWH mit Massendaten-Transfer bis zu mehreren Terabyte pro Nacht nicht mehr aus. Außerhalb der von Providern gut abgedeckten Gebiete sind Gigabyte-Bandbreiten allerdings kaum bis gar nicht verfügbar.
Hochverfügbare DWH-Strategien verlangen genaue Planung
Bereits vor dem Aufbau eines Data Warehouse und einer entsprechenden IT-Infrastruktur sollte deshalb darauf geachtet werden, welche DWH-Strategie das Unternehmen verfolgen möchte. Die grundlegende Frage lautet dabei, wie sich das DWH-Architektur-Konzept so aufsetzen lässt, dass das lokale DWH und die DBaaS-Lösung synchron laufen, ohne durch einen Infrastrukturteil wie eine langsame Cloud-Anbindung ausgebremst zu werden.


Mehr Artikel

News

Künstliche Intelligenz kommt auf Endgeräten an

Das Jahr 2025 wird an vielen Stellen für Umbrüche und Neuerungen sorgen. Ein genereller Trend ist dabei der weiter greifende Einsatz von KI-Funktionen: Unternehmen werden immer mehr Anwendungsfälle erkennen sowie implementieren – und dabei auch verstärkt auf lokale KI-Ressourcen und On-Prem-Hardware zurückgreifen. […]

News

7 KI-Trends, die das Jahr 2025 prägen werden

2025 wird wegweisend für die Weiterentwicklung der Künstlichen Intelligenz. Experten weltweit arbeiten daran, KI praxisnäher, präziser und vertrauenswürdiger zu machen. Mit besonderem Blick auf Datenarbeit skizziert Michael Berthold, CEO von KNIME, sieben wichtige Trends. […]

Florian Brence, Partner bei Deloitte Österreich (c) Deloitte
News

Diese Trends bestimmen die Tech-Welt 2025

Deloitte-Analyse: Auch wenn der erste mediale Hype vorbei ist, wird vor allem das Thema Generative Artificial Intelligence (GenAI) den Markt in den kommenden Monaten aufmischen. Die Branche muss sich auf einen Umbruch einstellen, der neben Chancen und Potenzialen auch einige Herausforderungen bringen wird. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*