Nutanix stellt seine KI-Infrastrukturlösung Nutanix Enterprise AI nun auch für den Einsatz in Public-Cloud-Umgebungen bereit. Die Plattform ermöglicht ein zentralisiertes und konsistentes Management von KI-Workloads in Rechenzentren, am Edge und in Cloud-Diensten. [...]
Nutanix Enterprise AI (NAI) unterstützt hybride Multicloud-Betriebsmodelle und ist auf Kubernetes-Plattformen wie AWS EKS, Azure AKS und Google GKE nutzbar. Die Plattform soll Unternehmen dabei helfen, KI-Modelle und Daten in einer sicheren Umgebung zu betreiben und gleichzeitig die Kapitalrendite zu maximieren. Durch die Integration von NVIDIA NIM wird einer Presseaussendung zufolge eine optimale Leistung bei der Verarbeitung großer Sprachmodelle (LLMs) ermöglicht, wodurch der Bereitstellungsprozess erheblich beschleunigt wird.
Herausforderungen bei generativer KI
Generative KI (GenAI) erfordert oft eine hybride Infrastruktur. Während Anwendungen häufig in der Public Cloud entwickelt werden, erfolgen das Training und die Anpassung der Modelle oft auf unternehmenseigenen Systemen. Gleichzeitig ist die Inferenzierung nah am Ort der Geschäftslogik erforderlich, was eine verteilte und komplexe Arbeitsweise mit sich bringt. Datenschutz, Sicherheit und Kostenkontrolle stellen dabei wesentliche Herausforderungen dar.
Vorteile von Nutanix Enterprise AI
Nutanix Enterprise AI adressiert diese Anforderungen eigenen Angaben zufolge durch einheitliche Multicloud-Workflows, die einfache Bereitstellung und Skalierung von LLMs sowie durch Integration mit quelloffenen Basismodellen wie Hugging Face. Kunden können dadurch KI-Infrastrukturen mit erhöhter Resilienz und Sicherheit aufbauen, sowohl On-Premises als auch in der Public Cloud.
Das Preismodell von NAI basiert auf der genutzten Infrastruktur, wodurch es sich von tokenbasierten Modellen unterscheidet und eine verlässliche Budgetplanung ermöglicht.
Integration mit NVIDIA und weiteren Lösungen
Nutanix Enterprise AI ist Bestandteil der erweiterten GPT-in-a-Box-2.0-Lösung und umfasst Software wie Nutanix Cloud Infrastructure (NCI) und die Kubernetes-Plattform NKP. NVIDIA NIM-Inferencing-Microservices sind integriert, um hochperformantes KI-Inferencing sicher und effizient bereitzustellen. Die Plattform unterstützt zudem unterschiedliche Kubernetes-Umgebungen und bietet Flexibilität bei der Auswahl der Infrastruktur.
Einsatzmöglichkeiten und Sicherheit
Die Lösung eignet sich für eine Vielzahl von Anwendungsfällen, darunter verbesserte Kundenerfahrungen durch die Analyse von Rückmeldungen, automatisierte Code- und Inhaltserstellung sowie Sicherheitsanwendungen wie Betrugserkennung und Bedrohungsanalyse.
Nutanix Enterprise AI bietet zudem umfassende Datenschutz- und Sicherheitsfunktionen. Dazu zählen rollenbasierte Zugriffskontrollen, ein intuitives Dashboard zur Fehlerbehebung und Unterstützung für isolierte Betriebsumgebungen.
Mit diesen Funktionen will der Anbieter Unternehmen bei der sicheren und effizienten Einführung von GenAI-Anwendungen unterstützen, unabhängig davon, ob diese On-Premises oder in der Public Cloud betrieben werden.
„Durch die enge Zusammenarbeit zwischen Nutanix und Hugging Face sind Kunden von Nutanix Enterprise AI in der Lage, die beliebtesten offenen Modelle auf einem einfach zu nutzenden und vollständig getesteten Stack bereitzustellen – jetzt auch in Public-Cloud-Umgebungen”, betont Jeff Boudier, Head of Product bei Hugging Face.
Be the first to comment