Pure Storage hat heute neue validierte Referenzarchitekturen für die Ausführung generativer KI-Anwendungsfälle vorgestellt, darunter eine neue validierte NVIDIA OVX-ready Referenzarchitektur. [...]
Zu den neuen validierten Designs und Proofs of Concept gehören:
Retrieval Augmented Generation (RAG) Pipeline für KI-Inferenz:
Um die Genauigkeit, Aktualität und Relevanz von Inferenzfunktionen für Large Language Models (LLMs) zu verbessern, hat Pure Storage eine RAG-Pipeline entwickelt. Diese nutzt NVIDIA NeMo Retriever Microservices und NVIDIA GPUs sowie Pure Storage als All-Flash Enterprise Storage.
Zertifizierte NVIDIA OVX Server Storage-Referenzarchitektur:
Pure Storage hat die OVX Server Storage-Validierung erhalten, die Unternehmenskunden und Channel-Partnern flexible Storage-Referenzarchitekturen bietet. Diese wurden anhand wichtiger Benchmarks validiert, um eine Infrastrukturgrundlage für kosten- und leistungsoptimierte KI-Hardware- und Softwarelösungen zu schaffen. Diese Validierung soll zusätzliche Auswahlmöglichkeiten für KI-Kunden bieten und die im vergangenen Jahr bekannt gegebene NVIDIA DGX BasePOD-Zertifizierung von Pure ergänzen.
Vertikale RAG-Entwicklung:
Um die erfolgreiche Einführung von KI in vertikalen Branchen zu beschleunigen, entwickelt Pure Storage vertikal-spezifische RAGs in Zusammenarbeit mit NVIDIA. Zunächst hat Pure Storage eine Financial Services RAG-Lösung mit FinGPT entwickelt, um riesige Datensätze mit höherer Genauigkeit als Standard-LLMs zusammenzufassen und abzufragen.
Finanzdienstleister sollen nun mithilfe von KI schnellere Einblicke gewinnen können und sofortige Zusammenfassungen und Analysen aus verschiedenen Finanzdokumenten und anderen Quellen erstellen. Weitere RAGs für das Gesundheitswesen und den öffentlichen Sektor werden in Kürze veröffentlicht.
Erweiterte Investitionen in das KI-Partner-Ökosystem:
Pure Storage investiert weiter in sein KI-Partner-Ökosystem mit NVIDIA und geht neue Partnerschaften mit ISVs wie Run.AI und Weights & Biases ein. Während Run.AI die GPU-Nutzung durch Orchestrierung und Planung optimiert, ermöglicht die KI-Entwicklungsplattform von Weights & Biases ML-Teams die Erstellung, Bewertung und Steuerung des Lebenszyklus der Modellentwicklung.
Einblicke von Experten:
„Pure Storage hat die steigende Nachfrage nach KI frühzeitig erkannt und eine effiziente, zuverlässige und leistungsstarke Plattform für die fortschrittlichsten KI-Implementierungen bereitgestellt. Im Rahmen unserer langjährigen Zusammenarbeit mit NVIDIA stellen die neuesten validierten KI-Referenzarchitekturen und Generative AI Proofs of Concept entscheidende Komponenten für globale Unternehmen dar, um die Komplexität des KI-Puzzles zu entschlüsseln.“
Rob Lee, Chief Technology Officer, Pure Storage
„NVIDIAs KI-Plattform-Referenzarchitekturen werden durch die einfache, effiziente und zuverlässige Dateninfrastruktur von Pure erweitert und bieten umfassende Lösungen für Unternehmen, die sich mit den Komplexitäten von KI, Datenanalyse und fortschrittlichem Computing auseinandersetzen müssen. Die neuesten validierten Referenzarchitekturen und Proofs of Concept von Pure tragen dazu bei, KI-Innovationen voranzutreiben und bieten Unternehmen die Tools, die sie benötigen, um neue Möglichkeiten zu erschließen und transformative Ergebnisse voranzutreiben.“
Bob Pette, VP Unternehmensplattformen, NVIDIA
„Bei WWT steht die technologische Innovation im Mittelpunkt der Bereitstellung wertvoller Dienstleistungen für unsere Kunden weltweit. Angesichts der wachsenden Nachfrage nach KI freuen wir uns sehr über die weitere Zusammenarbeit mit zwei Best-of-Breed-Anbietern in Sachen KI. Die hochleistungsfähige KI-Speicherinfrastruktur von Pure und die Kompetenz von NVIDIAs Fähigkeiten im Bereich KI-Computing bilden eine beeindruckende Synergie, die es gemeinsamen Kunden ermöglicht, Künstliche Intelligenz nahtlos in ihre Geschäftsabläufe einzubinden und gleichzeitig einen hohen ROI zu erzielen.“
Ryan Avery, High Performance Storage Architekt, World Wide Technology
„Wir bei Weights & Biases haben uns der Entwicklung der besten Tools für maschinelles Lernen und generative KI verschrieben – einschließlich der Automatisierung von Experimenten und der Nachverfolgung von Modellartefakten, der Rationalisierung von Modell- und Prompt-Evaluierung und der Umsetzung von End-to-End-Governance und Reproduzierbarkeit von Machine-Learning-Workloads. Unsere erweiterte Zusammenarbeit mit Pure Storage und NVIDIA unterstützt KI-Entwickler auf ihrem Weg zur Erstellung und Bereitstellung überlegener Modelle mit Geschwindigkeit, Zuverlässigkeit und Effizienz.“
Seann Gardiner, VP of Business Development, Weights & Biases
Bedeutung für die Branche:
Heute sind die meisten KI-Implementierungen auf fragmentierte Datenumgebungen verteilt – von der Cloud bis hin zu ungeeigneten, oft veralteten Speicherlösungen. Diese fragmentierten Umgebungen sind jedoch nicht in der Lage, die Leistungs- und Netzwerkanforderungen für KI-Datenpipelines zu erfüllen und das volle Potenzial von Unternehmensdaten zu erschließen.
In dem Maße, in dem Unternehmen KI nutzen, um Innovationen voranzutreiben, Prozesse zu rationalisieren und sich einen Wettbewerbsvorteil zu verschaffen, war die Nachfrage nach einer robusten, leistungsstarken und effizienten KI-Infrastruktur noch nie so groß.
Als Vorreiter bei der Implementierung von KI in Unternehmen, insbesondere bei einer schnell wachsenden Zahl von Fortune-500-Unternehmenskunden, will Pure Storage eine einfache, zuverlässige und effiziente Speicherplattform bieten, mit der Unternehmen das Potenzial von KI voll ausschöpfen können.
Be the first to comment