Hochverfügbare Data Center: Ausfallzeiten im Rechenzentrum vermeiden

Systemfehler, menschliches Versagen oder auch Naturkatastrophen führen zu ungeplanten Ausfällen in Rechenzentren. Verschärft wird diese Situation durch komplexe Technologien wie Virtualisierung und Cloud-Computing. Doch mit den richtigen Maßnahmen lassen sich derlei Notfälle kontrollieren. [...]

Ungeplante und teure Ausfallzeiten sind in Rechenzentren auf dem Vormarsch, und neue Entwicklungen wie Mobile Computing, Virtualisierung oder die Datenspeicherung in der Cloud machen die Situation nicht gerade einfacher. Untersuchungen zeigen, dass dadurch in Rechenzentren für die Wirtschaft erhebliche Kosten entstehen.
Die amerikanische Beratungsgesellschaft Aberdeen Group hat ermittelt, dass die Kosten, die durch den Ausfall von Rechenzentrumsdiensten entstehen, im Schnitt bei mehr als 1,5 Millionen US-Dollar liegen. Bei Data Centern, die über eine unzureichende Notfallplanung verfügen, sind es fast 2,9 Millionen US-Dollar. Dagegen müssen Unternehmen, die gut gerüstet sind, nur 72.000 US-Dollar aufwenden, um die Ursachen und Folgen einer Störung zu beheben. Das bedeutet für die Unternehmen beträchtliche wirtschaftliche Einbußen, einen gewaltigen Imageschaden und den Verlust von Millionen künftiger Geschäftschancen.
Und doch wäre der Betrieb eines Rechenzentrums gänzlich ohne Ausfallzeiten gar nicht möglich. So müssen wichtige Teile ersetzt, angepasst oder regelmäßig gewartet werden. Die Kunst liegt darin, dies so geschickt zu planen und dabei die richtigen Technologien einzusetzen, dass die Ausfallzeiten minimal bleiben.
VORAUSSCHAUENDE MONITORUNG-TOOLS NUTZEN
Ein Grund für ungeplante Ausfälle sind Betriebsstörungen, deren Ursachen überall im Rechenzentrum zu finden sein können. Jeder Teil der IT kann irgendwann einmal ausfallen: Geräte, Bauteile oder die elektrische Ausrüstung, das ist unvermeidlich. Der Schlüssel liegt darin, das Rechenzentrum mit entsprechend intelligenten Monitoring-Tools zu rüsten, die von sich aus das Wartungspersonal informieren, bevor überhaupt Probleme auftreten.
INTELLIGENTE POWER-LEISTEN ALS WICHTIGER BESTANDTEIL
In diesem Zusammenhang wird die Bedeutung der Power Distribution Unit (PDU) oft unterschätzt. Im Normalfall sitzt sie im Server-Rack. Dort misst und überwacht sie dessen Stromversorgung. Intelligente PDUs (iPDUs) können aber noch mehr: Sie halten ständig Ausschau nach möglichen Gefahren und informieren die Manager des Rechenzentrums über drohende Überlastungen oder andere Veränderungen, die sich negativ auf den Betrieb des Rechenzentrums auswirken könnten. Dazu gehören Leckagen oder Temperaturschwankungen.
HOT-SWAPPING – AUSTAUSCH IM LAUFENDEN BETRIEB
Um ungeplante Ausfälle zu vermeiden und planbare auf ein Minimum zu reduzieren, muss vorausschauend und zukunftssichernd gedacht werden. Dazu gehört unter anderem der Einkauf der richtigen Technologie, damit nicht der Ausfall eines einfachen Bauteils gleich den kompletten Betrieb lahmlegt. PDU-Bestandteile, die auch im laufenden Betrieb auswechselt werden können, ermöglichen notwendige Wartungsarbeiten, ohne dass die Server heruntergefahren werden müssen.


Mehr Artikel

News

6 Grundsätze für eine KI-taugliche Datenbasis

Wer Künstliche Intelligenz nutzen will, muss über eine vertrauenswürdige Datengrundlage verfügen. Daten sind das Lebenselixier von KI-Systemen und bestimmen maßgeblich die Qualität und Zuverlässigkeit der Ergebnisse. Nur so können KI-Modelle robust, anpassungsfähig und vertrauenswürdig arbeiten. […]

News

Cybersicherheitsbudgets werden falsch priorisiert

Der ICS/OT Cybersecurity Budget Report 2025 von OPSWAT deckt erhebliche Lücken in den Cybersicherheitsbudgets sowie einen Anstieg von ICS/OT-fokussierten Angriffen auf. Ferner wird deutlich, wie durch eine unzureichende Finanzierung, falsch gesetzte Prioritäten und uneinheitliche Abwehrmaßnahmen kritische Infrastrukturen immer raffinierteren Bedrohungen ausgesetzt sind. […]

News

Nach dem Hype: Diese vier KI-Trends werden 2025 weiterhin prägen

Die vergangenen zwei Jahre haben einen regelrechten KI-Boom erlebt. Insbesondere generative Modelle (GenAI) haben sich rasant weiterentwickelt und etablieren sich zunehmend als feste Größe in den Arbeitsprozessen von Organisationen weltweit. Angesichts dieser Dynamik fragen sich nun viele Unternehmen, welche Entwicklungen das Jahr 2025 bestimmen werden und welche Potenziale sich daraus ergeben. […]

News

Generative KI als Sicherheitsrisiko

Eine neue Studie von Netskope zeigt einen 30-fachen Anstieg der Daten, die von Unternehmensanwendern im letzten Jahr an GenAI-Apps (generative KI) gesendet wurden. Dazu gehören sensible Daten wie Quellcode, regulierte Daten, Passwörter und Schlüssel sowie geistiges Eigentum. Dies erhöht das Risiko von kostspieligen Sicherheitsverletzungen, Compliance-Verstößen und Diebstahl geistigen Eigentums erheblich. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*