NetApp und NVIDIA optimieren Deep Learning mit neuer KI-Architektur

Die NetApp ONTAP AI Proven Architecture soll den Zugriff auf Daten beschleunigen und so das Maß an Geschwindigkeit und Skalierbarkeit erreichen, das Anwendungen im Bereich künstlicher Intelligenz (KI) erfordern. [...]

In aller Welt investieren Unternehmen in KI. Oft fehlt ihnen jedoch eine Infrastruktur, um Daten für Deep Learning nutzbar zu machen oder Applikationen und Workflows so zu skalieren, wie es für KI-Projekte und den erwarteten Business-Nutzen erforderlich ist. (c) Fotolia/Alexander Limbach
In aller Welt investieren Unternehmen in KI. Oft fehlt ihnen jedoch eine Infrastruktur, um Daten für Deep Learning nutzbar zu machen oder Applikationen und Workflows so zu skalieren, wie es für KI-Projekte und den erwarteten Business-Nutzen erforderlich ist. (c) Fotolia/Alexander Limbach

NetApp hat die NetApp ONTAP AI Proven Architecture vorgestellt. Sie basiert auf NVIDIA DGX Supercomputern und dem Cloud-integrierbaren All-Flash-Storage NetApp AFF A800. Die Architektur vereinfacht und beschleunigt den Weg von Daten zwischen dem Entstehungsort, dem Rechenzentrum und der Cloud und macht diese Pipeline skalierbar. Anwender optimieren durch den Einsatz der Lösung KI– oder Deep-Learning-Projekte und erzielen dadurch geschäftliche Mehrwerte für ihr Unternehmen.

Verteilte Daten

Essenziell für erfolgreiche KI-Projekte ist ein umfassendes Datenmanagement. Die erforderlichen Daten müssen vollständig, aktuell und zugänglich sein. Obwohl viele Unternehmen neue KI-Plattformen, -Tools und -Verfahren einführen, haben die meisten keine Kontrolle über ihre verteilte Speicherlandschaft. Darunter leidet die Verfügbarkeit der Daten und der Erfolg von KI-Projekten. Lückenlose Kontrolle und Sichtbarkeit der Daten zwischen ihrem Entstehungsort, dem Rechenzentrum und der Cloud sind ein nicht zu unterschätzender Faktor bei der Umsetzung und dem langfristigen Erfolg von KI-Vorhaben.

Unternehmen aller Größenordnungen und Branchen nutzen KI, um reale Probleme zu lösen. Vor allem Großunternehmen setzen aus diesem Grund auf künstliche Intelligenz. Dies ist zwar spannend, aber KI-Modelle und -Workloads sind nicht einfach zu implementieren. Daher haben viele Unternehmen eher damit zu kämpfen“, sagt Ritu Jyoti, Program Vice President bei IDC. „Die leistungsstarke Lösung NetApp ONTAP AI Proven Architecture hilft Anwendern, Geschäftsergebnisse durch KI schneller zu erreichen und Hindernisse bei der Implementierung zu überwinden.“

„Die Entwicklung disruptiver KI-Technologie und deren Umsetzung in bahnbrechende Produkte und Dienstleistungen ist in vielen Märkten eine wichtige Anforderung unserer Kunden“, erklärt Monty Barlow, Head of Artificial Intelligence, Cambridge Consultants. „Die auf NVIDIA DGX Supercomputern und NetApp All Flash Storage basierende Lösung NetApp ONTAP AI vereinfacht und beschleunigt die Datenpipeline für Deep-Learning-Prozesse.“

ONTAP AI Proven Architecture ist ein gemeinsames Angebot von NVIDIA und NetApp. Es kombiniert eine der weltweit leistungsstärksten GPU-Lösungen mit einem der schnellsten Cloud-integrierbaren Flash-Systeme und Software. Zu den Funktionen und Vorteilen zählen:

  • Einfache Implementierung: schneller Einstieg in das KI-Umfeld, indem Komplexität und Unsicherheiten hinsichtlich des Lösungsdesigns eliminiert werden.
  • Grenzenlose Skalierbarkeit: Die Lösung lässt sich mit zunehmendem Datenwachstum von einer 1:1-Konfiguration bis auf eine 1:5-Konfiguration und darüber hinaus unbegrenzt nach oben hin skalieren.
  • Zuverlässiger Betrieb: Hochverfügbarkeit dank redundanter Speicherung sowie Netzwerk- und Serveranbindung.

Nahtlose Datenpipeline

Die Integration der Data Fabric ermöglicht es Anwendern von ONTAP AI, eine nahtlose Datenpipeline zu erstellen. In dieser können Daten frei fließen – von ihrem Entstehungsort in das Rechenzentrum oder in die Cloud. Integriert sind verschiedene, dynamische und verteilte Datenquellen. Diese werden kontrolliert und geschützt. Die hohe Rechenleistung von ONTAP AI dämmt Performance-Engpässe ein. Dank der hohen Kapazität greifen Anwender sicher und unterbrechungsfrei auf all ihre Daten zu – egal aus welcher Quelle diese stammen und unabhängig vom Datenformat.

„Die Kombination aus NVIDIA DGX und NetApp All Flash Arrays erfüllt die Herausforderungen heutiger KI-Implementierungen an die Infrastruktur“, erklärt Jim McHugh, Vice President und General Manager of Deep Learning Systems bei NVIDIA. „Durch NVIDIAs führende Position im Bereich KI– und GPU-Computing sowie NetApps Innovationskraft bei All-Flash-Storage-Systemen sind Anwender nun in der Lage, KI-Projekte mit bewährter Performance und vereinfachtem Betriebsmodell schneller zu implementieren.“

„In aller Welt investieren Unternehmen in KI. Oft fehlt ihnen jedoch eine Infrastruktur, um Daten für KI-Projekte nutzbar zu machen oder Applikationen und Workflows so zu skalieren, wie es für KI-Projekte und den erwarteten Business-Nutzen erforderlich ist“, erläutert Octavian Tanase, Senior Vice President, ONTAP bei NetApp. „NetApp ONTAP AI Proven Architecture schafft eine zentrale Datenumgebung für KI-Anwendungen, über die Unternehmen Zugriff und Performance kontrollieren können. Dadurch können sie ihren KI-Anwendungen stets die entsprechenden Daten zur richtigen Zeit am benötigten Ort zur Verfügung stellen.


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*