Pure Storage definiert den KI-Workflow mit NVIDIA neu und vereinfacht ihn

Es gibt eine Komplexität in einem KI-Modell, die Datenwissenschaftler bewältigen müssen. Es gibt eine Komplexität im Datenmanagement, die Dateningenieure einplanen müssen. Es gibt sogar Komplexitäten bei der Ausrichtung eines Unternehmens auf eine KI-Strategie. Diese Hürden gilt es zu überwinden. [...]

Unternehmen können die Prometheus-Exporter von Pure und NVIDIA kombinieren für das Management auf einer einzigen Oberfläche über ein ganzes Cluster hinweg.
Unternehmen können die Prometheus-Exporter von Pure und NVIDIA kombinieren für das Management auf einer einzigen Oberfläche über ein ganzes Cluster hinweg. (c) Pure Storage

Aggregate, Caches, Pools, Balancing und sonstiges Management-Wirrwarr macht so manche Speicherinfrastruktur viel zu komplex. Mit FlashBlade bietet Pure Storage ein einfaches System mit einem riesigen Scale-Out-Namensraum, Multiprotokollzugriff sowie einer einfachen, webbasierten GUI und REST API. Jeder kann es verwalten, in jeder Größenordnung. 

NVIDIA bietet ein hochflexibles Grafikprozessorsystem mit ebenso unübertroffener Einfachheit in Sachen Computing. Das NVIDIA DGX A100 ersetzt die zahlreichen spezialisierten Legacy-Computersysteme, die zur Unterstützung eines gesamten KI-Workflows, einschließlich Training, Inferenz und Analyse, erforderlich sind. 

Die Skalierung von KI-Projekten 

Wenn sich die KI-Strategie eines Unternehmens weiterentwickelt, muss sich auch die Infrastruktur mit ihr entwickeln. In den frühen Phasen der Modellentwicklung können die Teams in erster Linie Trainingsaufgaben ausführen. Das Deep-Learning-Training hat im Allgemeinen ein zufälliges Speicherzugriffsmuster und wird beschleunigt, indem mehrere GPUs für eine einzige Aufgabe verwendet werden. Bei der Inferenz auf eingehende Daten liegt wiederum im Allgemeinen ein sequentielles Lesemuster vor, und die Rechenarbeit wird in der Regel auf einer einzigen GPU ausgeführt. 

Unterstützung für die gesamte KI-Pipeline bei wachsenden Workloads

Pure Storage bietet dazu hohe Performance für alle Datenzugriffstypen und -muster. Darüber hinaus sorgt ein einzelner, zentralisierter Speicher für drastisch verkürzte Datenkopierzeiten zwischen Storage-Nodes. 

Das NVIDIA DGX A100 verfügt über acht NVIDIA A100 Tensor Core-Grafikprozessoren und unterstützt MIG-Partitionierung (Multi-Instance GPU). Dies ermöglicht die Ausführung einer großen Anzahl separater, vollständig isolierter Jobs innerhalb desselben DGX A100. 

Jetzt können Administratoren die richtige Speichergröße wählen und Ressourcen für jeden Workload – vom kleinsten bis zum größten – dimensionieren. Beim Einsatz in Unternehmen kann das DGX A100 die einzigartigen Ressourcenanforderungen Training, Inferenz und Analyse auf ein und demselben System unterstützen. Zudem kann FlashBlade die Skalierungsleistung für das einzigartige IO-Profil jedes Workflows bereitstellen. 

Die neuen AIRI-Lösungen (AI-Ready Infrastructure), bestehend aus Pure Storage FlashBlade und NVIDIA DGX-Systemen, ermöglichen es Datenwissenschaftlern, „intelligenter zusammenzuarbeiten“. AIRI stellt eine Infrastrukturlösung der Enterprise-Klasse bereitstellen, die von der IT-Abteilung verwaltet werden kann. AIRI-Lösungen helfen dabei, Rätselraten beim Infrastrukturdesign zu vermeiden, die Bereitstellung zu beschleunigen und die Verwaltung zu vereinfachen.

Einfache Verwaltung über die gesamte KI-Plattform 

„Modelle sind ein winziger Teil eines durchgehenden ML-Systems“, heißt es. Pure Storage möchte IT-Teams in die Lage versetzen, ihren Entwicklerteams skalierbare Self-Service-Plattformen zur Verfügung zu stellen und es Unternehmen zu ermöglichen, wertvolle KI-Modelle in der Produktion einzusetzen. FlashBlade und das DGX A100 bilden zusammen das Rückgrat für eine stabile End-to-End-KI-Umgebung. 

Durch die Unterstützung einer auf Kubernetes basierenden KI-Plattform mit FlashBlade können IT-Teams bei Bedarf problemlos neue Anwendungen hinzufügen. Sie nutzen den Pure Service Orchestrator, um für neue Benutzer automatisch persistente Volumes bereitzustellen. Zudem verwenden Anwendungen zur Pipeline-übergreifenden Überwachung und Alarmierung dasselbe FlashBlade für die performante Speicherung. 

(c) Pure Storage

Unternehmen können die Prometheus-Exporter von Pure und NVIDIA kombinieren für das Management auf einer einzigen Oberfläche über ein ganzes Cluster hinweg. Die Data-Hub-Architektur bietet somit eine ideale Speicherplattform zur Durchführung von Analysen und KI, während das NVIDIA DGX A100 für eine sehr hohe Rechendichte, Leistung und Flexibilität steht.


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*