NetApp zertifiziert NetApp EF600 All-Flash-NVMe-Storage in Kombination mit dem parallelen Dateisystem BeeGFS für NVIDIA DGX SuperPOD. Die neue Zertifizierung soll KI-und High-Performance-Computing (HPC)-Infrastrukturen erleichtern. [...]
Seit 2018 haben NetApp und NVIDIA Hunderte von Kunden mit einer Reihe von Lösungen versorgt, vom Aufbau von AI Centers of Excellence bis hin zur Lösung von immensen Herausforderungen im Training von KI, so eine Pressaussendung. Die Qualifizierung von NetApp EF600 und dem BeeGFS Dateisystem für DGX SuperPOD ist die jüngste Ergänzung der KI-Lösungen, die die beiden Unternehmen entwickelt haben.
„Die Allianz von NetApp und NVIDIA liefert seit Jahren branchenführende Innovationen und die neue Qualifikation für NVIDIA DGX SuperPOD baut auf diesem Momentum auf“, sagt Daniel Tiefenbacher, Manager Solutions Engineering Austria bei NetApp. „Die Anforderungen an Performance und Daten explodieren. Der NVIDIA DGX SuperPOD stellt in Verbindung mit der ONTAP AI-Plattform und dem DGX Foundry KI-Service sicher, dass unsere Kunden erstklassige Modell-Trainingsinfrastruktur und umfassenden Support von KI-Branchenführern erhalten.“
„Unternehmen, die ihr Geschäft mit KI und HPC modernisieren, benötigen bei der Entwicklung ihrer Infrastruktur Leistung, Flexibilität und Auswahlmöglichkeiten“, sagt Carlo Ruiz, NVIDIA EMEA Director – AI Data Center Solutions & Operations bei NVIDIA. „Dank unserer Zusammenarbeit mit NetApp können Kunden, die ihre eigenen AI Centers of Excellence aufbauen, NetApp Storage für ihren NVIDIA DGX SuperPOD wählen und dieselbe führende Plattform über NVIDIA DGX Foundry als gehostete Infrastruktur nutzen.“
„Wir freuen uns sehr zusammen mit NetApp und NVIDIA ein HPC/AI Center of Excellence mit NVIDIA DGX-Systemen aufzubauen. Dadurch können wir den Studenten Supercomputing und High-Performance-Computing-Infrastruktur zugänglich machen“, sagt Tonya Witherspoon, Associate Vice President, Industry Engagement & Applied Learning an der Wichita State University. „NetApp ist der Knotenpunkt in den digitalen Strukturen des Innovationscampus und wir können es kaum erwarten, die nächste Generation von Talenten in diesem spannenden Bereich zu fördern.“
Breites Portfolio an KI-Infrastrukturlösungen
NetApps Portfolio an NVIDIA-beschleunigten Lösungen umfasst ONTAP AI, das sich eigenen Angaben zufolge durch schnelle Inbetriebnahme auszeichnet. Möglich machen das die praxiserprobte Referenzarchitektur und die vorkonfigurierte integrierte Lösung, die schlüsselfertig und damit leicht zu beziehen und einzusetzen ist.
Ebenfalls enthalten ist NVIDIA DGX Foundry, das die NVIDIA Base Command-Software und die NetApp Keystone Flex Subscription umfasst. Diese Kombination bietet Unternehmen und ihren Data Scientists eine erstklassige gehostete Infrastrukturlösung für KI-Projekte, ohne den Aufwand, sie selbst zu entwickeln.
Mit der heutigen Ankündigung sollen Unternehmen ihre AI Centers of Excellence auch aufbauen können, indem sie die Leistung des DGX SuperPOD On-Premises in Kombination mit NetApp Storage nutzen.
NetApp bietet darüber hinaus in Zusammenarbeit mit NVIDIA maßgeschneiderte Lösungen für eine Vielzahl von Branchen an, darunter Finanzdienstleistungen, Medizin, Fertigung, Einzelhandel, Hochschulwesen und Behörden. Zudem haben die Unternehmen für Kunden, die das Thema KI neu angehen, Ideen-Workshops entwickelt und durchgeführt, um deren Erfolg zu beschleunigen und gleichzeitig Risiken zu minimieren, so eine Presseaussendung.
„Die wichtigen Herausforderungen in Sachen AI Lifecycle gehen über das Infrastrukturmanagement hinaus. Schlüsselfertige Lösungen und Services stehen im Fokus, damit Unternehmen ihre Infrastrukturinvestitionen für KI-Projekte einfacher tätigen können“, sagt Ritu Jyoti, Group Vice President, AI/Automation Research & Advisory bei IDC. „DGX SuperPOD ist der jüngste Meilenstein in einer fruchtbaren Allianz zwischen NetApp und NVIDIA, der diesem Bedarf gerecht wird. NetApp ist außerdem gut positioniert, um Kunden bei der Lösung ihrer Datenmanagement-Herausforderungen zu unterstützen, unabhängig davon, wo sich diese befinden.“
Be the first to comment