Was sind Rechenzentren, und wie verändern sie sich?

Die Zukunft von Rechenzentren wird sich auf Cloud, hyperkonvergierte Infrastruktur und leistungsfähigere Geräte stützen. [...]

Rechenzentren waren schon immer entscheidend für den Erfolg von Unternehmen fast aller Größenordnungen, und daran wird sich auch nichts ändern (c) pixabay.com

Ein Rechenzentrum ist eine physische Einrichtung, die Unternehmen zur Unterbringung ihrer geschäftskritischen Anwendungen und Informationen nutzen. Während sie sich weiterentwickeln, ist es wichtig, langfristig darüber nachzudenken, wie sie ihre Zuverlässigkeit und Sicherheit aufrechterhalten können.

Was ist ein Rechenzentrum?

Rechenzentren werden oft als etwas Singuläres bezeichnet, aber in Wirklichkeit bestehen sie aus einer Reihe von technischen Elementen. Diese lassen sich in drei Kategorien unterteilen:

  • Compute: Die Speicher- und Verarbeitungsleistung zur Ausführung der Anwendungen, die im Allgemeinen von High-End-Servern bereitgestellt wird
  • Storage: Wichtige Unternehmensdaten befinden sich in der Regel in einem Rechenzentrum, auf Medien von Band bis hin zu Solid-State-Laufwerken, mit mehreren Backups.
  • Networking: Verbindungen zwischen Rechenzentrumskomponenten und zur Außenwelt, einschließlich Routern, Switches, Application-Delivery-Controllern und mehr

Dies sind die Komponenten, die die IT benötigt, um die kritischsten Systeme zu speichern und zu verwalten, die für den kontinuierlichen Betrieb eines Unternehmens von entscheidender Bedeutung sind. Aus diesem Grund haben die Zuverlässigkeit, Effizienz, Sicherheit und ständige Weiterentwicklung von Rechenzentren in der Regel oberste Priorität. Sowohl Software- als auch Hardware-Sicherheitsmaßnahmen sind ein Muss.

Zusätzlich zur technischen Ausrüstung benötigen Rechenzentren auch eine beträchtliche Menge an Infrastruktur, um die Hardware und Software am Laufen zu halten. Dazu gehören Stromversorgungs-Subsysteme, unterbrechungsfreie Stromversorgungen (USV), Lüftungs- und Kühlsysteme, Backup-Generatoren und Verkabelung zum Anschluss an externe Netzbetreiber.

Rechenzentrums-Architektur

Jedes Unternehmen von signifikanter Größe wird wahrscheinlich mehrere Rechenzentren haben, möglicherweise in mehreren Regionen. Dies gibt dem Unternehmen Flexibilität bei der Sicherung seiner Informationen und schützt es vor natürlichen und vom Menschen verursachten Katastrophen wie Überschwemmungen, Stürmen und terroristischen Bedrohungen. Wie das Rechenzentrum aufgebaut ist, kann einige schwierige Entscheidungen erfordern, da es fast unbegrenzte Möglichkeiten gibt. Einige der wichtigsten Überlegungen sind:

  • Braucht das Unternehmen gespiegelte Rechenzentren?
  • Wie viel geografische Vielfalt ist erforderlich?
  • Wie viel Zeit ist für die Wiederherstellung im Falle eines Ausfalls erforderlich?
  • Wie viel Raum ist für eine Expansion erforderlich?
  • Sollten Sie ein privates Rechenzentrum mieten oder einen Co-Location/Managed Service nutzen?
  • Wie hoch sind die Anforderungen an Bandbreite und Leistung?
  • Gibt es einen bevorzugten Anbieter?
  • Welche Art von physischer Sicherheit ist erforderlich?

Anhand der Antworten auf diese Fragen lässt sich bestimmen, wie viele Rechenzentren an welchem Ort gebaut werden sollen. Zum Beispiel benötigt ein Finanzdienstleistungsunternehmen in Manhattan wahrscheinlich einen kontinuierlichen Betrieb, da ein Ausfall Millionen kosten könnte. Das Unternehmen würde wahrscheinlich beschließen, zwei Rechenzentren in unmittelbarer Nähe zu bauen, wie z.B. eines in New Jersey und eines in Connecticut, die sich gegenseitig spiegeln. Eines von ihnen könnte dann ohne Beeinträchtigung des Betriebs ganz abgeschaltet werden, weil das Unternehmen mit dem anderen laufen könnte.

Ein kleines professionelles Dienstleistungsunternehmen benötigt jedoch unter Umständen keinen sofortigen Zugang zu Informationen und kann ein primäres Rechenzentrum in seinen Büros haben und die Informationen nachts an einem alternativen Standort im ganzen Land sichern. Im Falle eines Ausfalls würde es einen Prozess zur Wiederherstellung der Informationen einleiten, hätte aber nicht die gleiche Dringlichkeit wie ein Unternehmen, das auf Echtzeitdaten angewiesen ist, um Wettbewerbsvorteile zu erlangen.

Obwohl Rechenzentren häufig mit Unternehmen und webbasierten Cloud-Anbietern in Verbindung gebracht werden, kann eigentlich jedes Unternehmen ein Rechenzentrum haben. Für einige KMUs könnte das Rechenzentrum ein Raum in ihren Büroräumen sein.

Branchenstandards

Um IT-Führungskräften das Verständnis dafür zu erleichtern, welche Art von Infrastruktur eingesetzt werden kann, veröffentlichten das American National Standards Institute (ANSI) und die Telecommunications Industry Association (TIA) im Jahr 2005 Standards für Rechenzentren, in denen vier diskrete Ebenen mit Design- und Implementierungsrichtlinien definiert wurden. Ein Tier-1-Rechenzentrum ist im Grunde genommen ein modifizierter Serverraum, wobei ein Tier-4-Rechenzentrum den höchsten Grad an Systemzuverlässigkeit und Sicherheit aufweist. Eine Beschreibung der einzelnen Arten von Rechenzentren finden Sie hier.

Rechenzentren befinden sich derzeit in einem bedeutenden Wandel, und das Rechenzentrum von morgen wird ganz anders aussehen als das, mit dem die meisten Unternehmen heute vertraut sind.

Unternehmen werden immer dynamischer und verteilter, was bedeutet, dass die Technologie, die Rechenzentren antreibt, agil und skalierbar sein muss. Da die Servervirtualisierung immer beliebter wird, hat der lateral über das Rechenzentrum (Ost-West) fließende Datenverkehr den traditionellen Client-Server-Verkehr, der ein- und ausgeht (Nord-Süd), in den Schatten gestellt. Dies stellt die Manager von Rechenzentren vor einige Herausforderungen, und weitere sind am Horizont zu erwarten.

Hier sind die Schlüsseltechnologien, die Rechenzentren von statischen und starren Umgebungen, die die Geschäftsziele von Unternehmen behindern können, zu flüssigen, agilen Einrichtungen entwickeln werden – in der Lage, die Anforderungen eines digitalen Unternehmens zu erfüllen.

Edge Computing und Mikro-Datenzentren

Edge Computing ist ein zunehmend populäres Paradigma, bei dem ein Großteil der Rechenarbeit, die traditionell in einem zentralisierten Datenzentrum anfällt, näher am Rand des Netzwerks stattfindet, in dem die Daten gesammelt werden. Das bedeutet weniger Verzögerungen für Anwendungen, die nahezu in Echtzeit ausgeführt werden müssen, und eine Reduzierung der benötigten Datenbandbreite.

Mikro-Rechenzentren sind kompakte Einheiten, die Daten physisch in der Nähe der Geräte, die sie sammeln, verarbeiten, analysieren und speichern können, und die Platzierung vor Ort macht Edge Computing möglich. Mikro-Rechenzentren werden zur Unterstützung einer Reihe von Anwendungen eingesetzt, darunter 5G-Netzwerke, Internet of Things-Rollouts und Content-Delivery-Netzwerke.

Es gibt eine Reihe von Anbietern im Bereich der Mikro-Datenzentren, einige mit Hintergrund in angrenzenden Bereichen wie Infrastructure as a Service (IaaS) oder Colocation-Services. Mikro-Rechenzentren werden oft (aber nicht immer) als vormontierte Geräte verkauft, und „Mikro“ deckt eine ziemlich große Bandbreite an Größen ab. Sie können von einem einzelnen 19-Zoll-Rack bis zu einem 40-Fuß-Transportcontainer reichen, und die Verwaltung kann vom Verkäufer übernommen oder an einen Managed Service Provider (MSP) ausgelagert werden.

Die Rolle der Cloud

In der Vergangenheit hatten Unternehmen die Wahl, ein eigenes Rechenzentrum zu bauen oder einen Hosting-Anbieter oder einen MSP zu nutzen. Letzteres führte zu einer Verlagerung der Eigentumsverhältnisse und der Wirtschaftlichkeit des Betriebs eines Rechenzentrums, aber die langen Vorlaufzeiten, die für die Bereitstellung und Verwaltung der erforderlichen Technologie notwendig waren, blieben dennoch bestehen. Der Aufstieg von IaaS von Cloud-Anbietern wie Amazon Web Services und Microsoft Azure hat Unternehmen eine Option eröffnet, bei der sie mit wenigen Mausklicks ein virtuelles Rechenzentrum in der Cloud bereitstellen können. Im Jahr 2019 gaben Unternehmen erstmals jährlich mehr für Cloud-Infrastrukturdienste als für physische Rechenzentrumshardware aus, und mehr als die Hälfte aller verkauften Server ging in die Rechenzentren von Cloud-Anbietern.

Nichtsdestotrotz wird das lokale Vor-Ort-Rechenzentrum in absehbarer Zeit nicht verschwinden. In einer Umfrage des Uptime Institute aus dem Jahr 2020 gaben 58 Prozent der Befragten an, dass der Großteil ihrer Arbeitslasten in den Rechenzentren von Unternehmen verbleibt, und sie nannten die mangelnde Transparenz öffentlicher Clouds und die mangelnde Verantwortung für die Verfügbarkeit als Grund, sich gegen die Umstellung zu wehren. 

Viele Unternehmen nutzen das Beste aus beiden Welten, indem sie einen Hybrid-Cloud-Ansatz verwenden, bei dem einige Workloads in eine öffentliche Cloud ausgelagert werden, während andere, die mehr praktische Kontrolle oder Sicherheit benötigen, weiterhin im lokalen Rechenzentrum laufen. Laut dem Flexera 2020 State of the Cloud Report verfolgen 87 Prozent der befragten Unternehmen eine Hybrid-Cloud-Strategie.

Software-defined Networking (SDN)

Ein digitales Unternehmen kann nur so agil sein wie seine am wenigsten agile Komponente, und das ist oft das Netzwerk. Durch die Trennung der Netzwerksteuerungsebene, die darüber entscheidet, wie der Verkehr am besten von der Datenebene, die Pakete von einem Punkt zum anderen weiterleitet, geleitet wird, können Netzwerke effizienter und flexibler gestaltet werden. Sie können leicht per Software optimiert werden, um sich an wechselnde Netzwerklasten anzupassen.

Diese Architektur wird als Software-defined Networking (SDN) bezeichnet und kann auf Rechenzentren angewendet werden. Mit Hilfe von Netzwerk-Controllern, die Rechenzentrumshardware bereitstellen und verwalten, können Rechenzentren viel schneller konfiguriert werden, wobei häufig Befehle in einfacher Sprache verwendet werden, die eine zeitaufwändige, fehleranfällige manuelle Konfiguration überflüssig machen.

Hyperkonvergierte Infrastruktur (HCI)

Eine der betrieblichen Herausforderungen von Rechenzentren besteht darin, die richtige Mischung aus Servern, Speicher- und Netzwerkgeräten zusammenzuschustern, um anspruchsvolle Anwendungen zu versorgen. Wenn die Infrastruktur erst einmal eingerichtet ist, muss der IT-Betrieb herausfinden, wie man schnell skalieren kann, ohne die Anwendung zu unterbrechen. HCI vereinfacht dies durch die Bereitstellung einfach zu implementierender Appliances auf der Basis von Standard-Hardware, die Verarbeitungsleistung, Speicher und Netzwerk in einem einzigen Stück Hardware bereitstellen. Die Architektur kann durch Hinzufügen weiterer Knoten skaliert werden.

HCI kann herkömmlichen Rechenzentren eine Reihe von Vorteilen bieten, darunter Skalierbarkeit, Cloud-Integration sowie einfachere Konfiguration und Verwaltung.

Container, Mikrodienste und Dienstnetze

Die Anwendungsentwicklung wird häufig durch die Zeitdauer verlangsamt, die für die Bereitstellung der Infrastruktur, auf der sie läuft, benötigt wird. Dies kann die Fähigkeit eines Unternehmens, auf ein DevOps-Modell umzustellen, erheblich behindern. Container sind eine Methode zur Virtualisierung einer gesamten Laufzeitumgebung, die es Entwicklern ermöglicht, Anwendungen und ihre Abhängigkeiten in einem in sich geschlossenen System auszuführen. Container sind sehr leichtgewichtig und können schnell erstellt und zerstört werden, so dass sie sich ideal eignen, um zu testen, wie Anwendungen unter bestimmten Bedingungen laufen.

Containerisierte Anwendungen werden oft in einzelne Mikrodienste unterteilt, von denen jeder einen kleinen, diskreten Teil der Funktionalität kapselt, die miteinander interagieren und so eine vollständige Anwendung bilden. Die Aufgabe, diese einzelnen Container zu koordinieren, fällt einer architektonischen Form zu, die als Service-Mesh bekannt ist, und während das Service-Mesh viel Arbeit leistet, um die Komplexität von den Entwicklern weg zu abstrahieren, benötigt es seine eigene Pflege und Wartung. Die Automatisierung und Verwaltung von Service-Meshs sollte in umfassende Netzwerkverwaltungssysteme für Rechenzentren integriert werden, insbesondere da die Container-Implementierungen immer zahlreicher, komplexer und strategischer werden.

Mikrosegmentierung

Traditionelle Rechenzentren verfügen im Kern über die gesamte Sicherheitstechnologie, so dass der ein- und ausgehende Datenverkehr die Sicherheitstools durchläuft und das Unternehmen schützt. Der Anstieg des horizontalen Datenverkehrs innerhalb von Rechenzentren bedeutet, dass der Verkehr Firewalls, Intrusion Prevention-Systeme und andere Sicherheitssysteme umgeht und sich Malware sehr schnell verbreiten kann. Die Mikrosegmentierung ist eine Methode zur Schaffung vieler Segmente innerhalb eines Rechenzentrums, bei der Gruppen von Ressourcen voneinander isoliert werden können, so dass im Falle eines Bruchs der Schaden innerhalb eines Segments eingedämmt wird. Die Mikrosegmentierung wird typischerweise in Software durchgeführt, wodurch diese sehr agil wird.

Non-volatile Memory Express (NVMe)

In einer Welt, die zunehmend digitalisiert wird, geht alles schneller, und das bedeutet, dass die Daten schneller in und aus dem Speicher des Datenzentrums bewegt werden müssen. Traditionelle Speicherprotokolle wie die Small Computer System Interface (SCSI) und Advanced Technology Attachment (ATA) gibt es schon seit Jahrzehnten und stoßen an ihre Grenzen. NVMe ist ein Speicherprotokoll, das entwickelt wurde, um die Übertragung von Informationen zwischen Systemen und Solid-State-Laufwerken zu beschleunigen und die Datenübertragungsraten erheblich zu verbessern.

Und NVMe ist nicht nur auf den Anschluss an Solid-State-Speicherchips beschränkt: NVMe over Fabrics (NVMe-oF) ermöglicht die Erstellung superschneller Speichernetzwerke mit Latenzen, die mit der direkt angeschlossenen Speicherung konkurrieren.

GPU-Computing

Central Processing Units (CPUs) verfügen seit Jahrzehnten über eine leistungsfähige Rechenzentrumsinfrastruktur, aber das Mooresche Gesetz stößt an physikalische Grenzen. Außerdem führen neue Arbeitslasten wie Analytik, maschinelles Lernen und IoT dazu, dass ein neuartiges Rechenmodell benötigt wird, das die Möglichkeiten von CPUs übersteigt. Grafikverarbeitungseinheiten (GPUs), die früher nur für Spiele verwendet wurden, funktionieren grundlegend anders, da sie in der Lage sind, viele Threads parallel zu verarbeiten.

Infolgedessen finden GPUs einen Platz im modernen Rechenzentrum, das zunehmend die Aufgabe hat, KI und neuronale Vernetzung zu übernehmen. Dies wird zu einer Reihe von Verschiebungen in der Architektur von Rechenzentren führen, von der Anbindung an das Netzwerk bis hin zur Kühlung.

Rechenzentren waren schon immer entscheidend für den Erfolg von Unternehmen fast aller Größenordnungen, und daran wird sich auch nichts ändern. Die Anzahl der Möglichkeiten zur Einrichtung eines Rechenzentrums und die zugrunde liegenden Technologien sind jedoch einem radikalen Wandel unterworfen. Technologien, die diesen Wandel beschleunigen, sind diejenigen, die in Zukunft benötigt werden.

* Zeus Kerravala ist der Gründer und Chefanalyst von ZK Research.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*