Rechenzentren im Jahr 2020: Automatisierung und billigerer Speicher

Da Rechenzentren im Jahr 2020 wachsen werden, müssen Unternehmen das Gleichgewicht zwischen lokalen und Cloud-Ressourcen verbessern, KI auf Servern einführen und versuchen, die Datenflut effektiv zu bewältigen. [...]

Das Kalenderjahr neigt sich dem Ende zu. Zeit, sich mit den Prognosen für 2020 auseinanderzusetzen (c) Pixabay.com

Es ist wieder soweit, dass wir in der Presse unsere Jahresprognosen für das kommende Jahr abgeben. Einige Dinge, die wir kommen gesehen haben; der Aufstieg der Cloud und der Fortschritt von SSD. Andere, wie die Rückkehr vieler Cloud-Migrationen in die lokalen Standorte oder das fulminante Comeback von AMD, gingen direkt an uns vorbei. Wir geben unser Bestes, aber gelegentlich kommt es zu Überraschungen.

Werfen wir also einen Blick in die immer trübere Kristallkugel und machen 10 rechenzentrumsorientierte Vorhersagen.

IoT bringt das Wachstum von Rechenzentren in städtischen Gebieten

Dies ist keine schwer vorherzusagende Tatsache, da es bereits geschieht. Die Rechenzentren befanden sich lange Zeit in der Nähe von erneuerbaren Energien (meist Wasserkraft), aber der Bedarf wird einen weiteren Ausbau in großen Metropolengebieten erfordern. Das IoT wird ein Motor sein, aber auch die zunehmende Nutzung von Rechenzentrumsanbietern wie Equinix und DRT als Interkonnektionsanbieter.

Anstieg der Netzwerkbeschleuniger

Big Data und künstliche Intelligenz aller Geschmacksrichtungen bedeuten enorme Datenmengen, und nicht alles davon kann an einem Ort gefunden werden. Hinzu kommt, dass CPUs vorerst dazu angehalten werden, Netzwerkverkehrssteuerungen mit Strom zu versorgen, was sie von ihrer Hauptaufgabe, der Datenverarbeitung, abhält.

Daher werden immer mehr Netzwerkbeschleuniger wie die ConnectX-Linie von Mellanox auf den Markt kommen, damit CPUs die Datenverarbeitung übernehmen können, und Beschleuniger die Aufgabe, große Datenmengen schneller als bisher zu bewegen.

NVMe over fabrics wächst

Non-volatile memory express (NVMe) ist eine Speicherschnittstelle, wie z.B. Serial Advanced Technology Attachment (SATA). Der Nachteil von SATA ist, dass sein Vermächtnis auf den Festplatten liegt, so dass es die Geschwindigkeit und Parallelität von SSDs nicht voll ausschöpft. Aber die frühen Unternehmens-SSDs hatten ein Problem: Sie konnten nur mit dem physischen Server kommunizieren, auf dem sie installiert waren. Entweder das oder ein Server benötigte Speicher-Arrays, was Netzwerk-Hops bedeutete, was wiederum Latenzzeiten bedeutete.

NVMe over fabrics (NVMeoF) ist ein wichtiger Fortschritt. Es lässt eine SSD in einem Server über das Netzwerk mit einem anderen Laufwerk irgendwo anders im Netzwerk kommunizieren. Diese direkte Kommunikation ist entscheidend für eine verbesserte Datenübermittlung im Bereich Enterprise Computing und digitale Transformation.

Preiswerterer Storage-Class-Speicher

Storage-class Speicher ist Speicher, der in einen DRAM-Steckplatz passt und wie DRAM, aber auch wie eine SSD funktionieren kann. Es erreicht eine nahezu DRAM-ähnliche Geschwindigkeit, verfügt aber auch über Speicherfähigkeiten, die es effektiv in einen Cache für SSD verwandeln.

Intel und Micron arbeiteten gemeinsam an SCM, trennten sich aber von der Firma. Intel veröffentlichte sein SCM-Produkt Optane im Mai, und Micron kam im Oktober mit QuantX auf den Markt. Der südkoreanische Speicherriese SK Hynix arbeitet auch an einem SCM-Produkt, das sich von der 3D XPoint Technologie unterscheidet, die Micron und Intel ebenfalls verwenden.

All dies sollte Wunder bewirken, um die Technologie voranzubringen und hoffentlich den Preis zu senken. Im Moment kostet ein 512GB Memory-Stick von Optane wahnsinnige 8.000 Dollar. Zugegeben, Xeons verkaufen noch mehr als das, aber nach einer Weile wird es unerschwinglich teuer, einen vollständig ausgestatteten Server zu bauen. Die Förderung der Technologie und des Wettbewerbs sollte zu niedrigeren Preisen führen, was diese Speicherkategorie für Unternehmen attraktiver machen wird.

KI-Automatisierung auf Markenservern

Alle Serveranbieter fügen KI zu ihren Systemen hinzu, aber Oracle übernimmt mit seinem eigenständigen Gesamtkonzept, von der Hardware über das Betriebssystem bis hin zum Anwendungs- und Middleware-Stack, wirklich die Führung. HPE, Dell und Lenovo werden auch weiterhin ihre eigenen Fortschritte machen, aber die Anbieter von Hyperscale-servern wie Inspur und Supermicro werden hinterherhinken, weil sie nur den Hardware-Stack besitzen und so gut wie nichts im Bereich des Betriebssystems getan haben. Sie hinken auch bei der Datenspeicherung hinterher, was die drei großen Serveranbieter auszeichnet.

Oracle ist zwar kein Top-5-Serveranbieter, aber niemand kann ignorieren, was es im Automatisierungsbereich tut. Erwarten Sie von den anderen Markenanbietern, dass sie ihren eigenen, zunehmenden Automatisierungsgrad erreichen.

Langsame Cloud-Migrationen

Erinnern Sie sich noch daran, als alle sich darauf freuten, ihre Rechenzentren komplett abzuschalten und in die Cloud zu wechseln? So viel zu dieser Idee. Die neueste CloudPulse-Umfrage von IDC zeigt, dass 85 % der Unternehmen planen, die Arbeitsbelastung im Laufe des nächsten Jahres von öffentlichen auf private Umgebungen zu verlagern. Und eine aktuelle Umfrage von Nutanix ergab, dass 73% der Befragten angaben, sie würden einige Anwendungen aus der Public Cloud und wieder on-prem verschieben. Als Hauptgrund wurde die Sicherheit genannt.

Und da die zweifelhafte Sicherheitslage für einige Unternehmen und einige Daten jemals gut genug sein wird, scheint es, dass sich der rasante Ansturm auf die Cloud wahrscheinlich etwas verlangsamen wird, da die Menschen immer wählerischer werden, was sie in die Cloud bringen und was sie hinter ihrer Firewall behalten wollen.

Datenausbreitung, Teil 1

Die meisten Daten sind laut IDC nicht dort, wo sie sein sollten. Nur 10% der Unternehmensdaten sind „heiß“ – Daten, die immer wieder abgerufen und verwendet werden – während 30% „warm“ sind – halbwegs regelmäßig genutzt – und die anderen 60% gehören in den Kühlraum, wo sie selten oder nie abgerufen werden.

Das Problem ist jedoch, dass diese Daten überall verteilt sind und oft auf der falschen Ebene liegen. Viele Speicherunternehmen haben sich auf die Deduplizierung konzentriert, nicht aber auf Speicherstufen. Ein Startup namens Spectra Logic zielt auf genau dieses Problem ab, und ich vermute, dass es nicht die letzte Firma sein wird, die sich so anstrengt. Wenn es wirklich abhebt, gehe ich davon aus, dass HPE und Dell auch das Unternehmen in den Griff bekommen werden.

Datenausbreitung, Teil 2

IDC prognostiziert, dass der gesamte globale Datentransport bis 2025 bei 175 Zettabytes liegen wird, und wir sind bereits bei 32ZB an Daten, von denen viele nutzlos sind. Es gab eine Zeit, in der Data Warehousing vorschrieb, dass Daten sortiert und verarbeitet und als etwas Nützliches gespeichert wurden. Heute füllen Menschen Datenseen mit einem endlosen Angebot an Daten aus einer wachsenden Anzahl von Quellen, wie Social Media und IoT.

Früher oder später wird irgendetwas dafür aufkommen müssen. Die Leute werden einen Blick auf Petabytes von Daten-See-Müll werfen und zugeben, dass genug genug ist und anfangen, wesentlich wählerischer zu werden, was sie speichern. Sie werden die Gründe hinter den Ausgaben für Festplatten und Speicher-Arrays hinterfragen, um riesige Mengen an ungenutzten und wertlosen Daten zu speichern. Das Pendel schwingt zurück zum Data-Warehouse-Modell der Aufbewahrung nutzbarer Daten. Es muss, oder die Leute werden erdrückt werden.

Mehr Server mit einem Mix aus Prozessoren

Vor zehn Jahren spielte es keine Rolle, ob Ihre Definition eines Servers ein Xeon-Turm mit einem einzigen Sockel war, der unter einem Schreibtisch stand, oder ein Rack mit vier Sockeln in einem 19m hohen Schrank, sie wurden von einem x86-Prozessor definiert. Jetzt aber sehen wir mehr Serverdesigns mit On-Board-GPUs, Arm-Prozessoren, KI-Beschleunigern und Netzwerkbeschleunigern.

Dies erfordert einige Änderungen im Serverdesign. Erstens wird die Flüssigkeitskühlung immer notwendiger, da diese Vielzahl von Chips immer schneller und heißer und in einem geschlossenen Raum arbeitet. Zweitens muss der Software-Stapel robuster sein, um all diese Chips zu handhaben, was einige Arbeit von Microsoft und den Linux-Distributionen erfordert.

IT-Arbeitslast wird sich ändern

Denken Sie nicht, dass Automatisierung bedeutet, dass Sie auf Ihrem iPhone sitzen und Spiele spielen können. Dank ihrer sich ständig weiterentwickelnden Systeme werden IT-Profis eine Reihe neuer Probleme bekommen, darunter:

  • Bekämpfung der Schatten-IT
  • Adressierung der digitalen Transformation
  • Entwicklung von KI-Strategien, um mit dem Wettbewerb Schritt zu halten
  • Angemessenes Reagieren auf die Auswirkungen neuer KI-Strategien
  • Aufrechterhaltung der Sicherheitsrichtlinien im gesamten Unternehmen
  • Umgang mit einem zunehmenden Datenstrom und Herausfinden, was damit zu tun ist
  • Schneller denn je auf Kunden und die Reputation des Unternehmens auf Social Media reagieren

*Andy Patrizio ist ein freiberuflicher Journalist mit Sitz in Südkalifornien, der seit 20 Jahren die Computerindustrie abdeckt und jeden x86-PC gebaut hat, den er je besaß, Laptops nicht inklusive.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*