IT-Abteilungen werden vor dem Problem stehen, zusätzliche Workloads, neue Trafficmuster und neue Querverbindungen innerhalb ihres Unternehmens zu bewältigen. Um sie hier zu unterstützen, stellt Cisco seinen ersten Server vor, der speziell für KI- und ML-Workloads entwickelt wurde. [...]
Der neue Cisco UCS-Server beschleunigt Deep Learning. Das ist eine rechenintensive Form des maschinellen Lernens, die neuronale Netze und große Datensätze nutzt, um Computer für komplexe Aufgaben zu trainieren. Der Server ist mit leistungsstarken NVIDIA-GPUs ausgestattet und wurde entwickelt, um viele der bekanntesten ML-Software-Stacks zu beschleunigen.
Datenwissenschaftler und Entwickler können zwar mit maschinellem Lernen am Laptop experimentieren, aber Deep Learning in großem Maßstab erfordert viel mehr Rechenleistung. Außerdem bedarf es einer IT-Architektur, die große Datensets verarbeiten kann. Darüber hinaus benötigt Deep Learning Werkzeuge, die diese Daten in sinnvollen Zusammenhang bringen und daraus lernen können. Aus diesem Grund arbeitet Cisco mit seinen Technologiepartnern daran, viele der heute wichtigsten Werkzeuge für maschinelles Lernen zu validieren. Dieser Prozess soll deren Bereitstellung vereinfachen und schneller Ergebnisse liefern.
„In den nächsten Jahren werden Apps, die auf künstlicher Intelligenz und maschinellem Lernen basieren, zum Standard im Unternehmensumfeld werden. Dies wird zwar viele komplexe Geschäftsprobleme lösen, es bedeutet aber auch neue Herausforderungen für die IT“, sagt Roland Acra, SVP und GM für Ciscos Data Center Business Group. „Die heutige leistungsstarke Ergänzung der Cisco UCS-Produktreihe wird KI-Initiativen in vielen Branchen unterstützen. Unsere Early-Access-Kunden im Finanzsektor erkunden Möglichkeiten, die Betrugserkennung und den algorithmusgesteuerten Handel verbessern. Die Kunden im Gesundheitswesen interessieren sich für bessere Erkenntnisse und Diagnosen, die bessere Klassifizierung medizinischer Bildaufnahmen und die Beschleunigung der Medikamentenforschung und -entwicklung.“
Lösungen für alle Phasen des KI-Prozesses
Mit der Erweiterung um den Cisco UCS C480 ML bietet Cisco nun eine umfassende Palette von Rechnerlösungen für jede Phase des AI– und ML-Lebenszyklus. Von der Datenerfassung und -analyse an den Orten, wo sie anfallen, über die Datenaufbereitung und Schulung im Rechenzentrum bis hin zur Echtzeit-Inferenz als Kern der KI, werden die verschiedenen Bedürfnisse der Kunden abgedeckt.
Heute nutzen tausende Cisco-Kunden UCS, um Erkenntnisse aus großen Datenmengen zu gewinnen. Der neue Server von Cisco für KI und ML baut auf der Erfahrung in der Datenverlagerung vom Rand zum Kern auf – und geht sogar noch weiter. So können Kunden mehr Erkenntnisse aus ihren Daten extrahieren und diese für bessere und schnellere Entscheidungen nutzen. Mit dem neuen DevNet AI Developer Center und DevNet Ecosystem Exchange stellt Cisco auch Data Scientists und Entwicklern passende Werkzeuge und Ressourcen zur Verfügung, um eine neue Generation von Apps zu entwickeln.
UCS macht es der IT-Abteilung leicht, ihrer Umgebung neue Technologien hinzuzufügen. Mit Cisco Intersight erhalten sie auch die Einfachheit und Reichweite von Cloud-basiertem Systemmanagement. Auf diese Weise können sie Richtlinien und Operationen für ihre gesamte Computerinfrastruktur aus der Cloud automatisieren. Und mit den von Cisco validierten Designs, die helfen, die sich schnell entwickelnden Stapel von KI– und ML-Software zu entmystifizieren, kann die IT-Abteilung sie verlässlich im Enterprise-Bereich einsetzen.
Als Ökosystem aufgebaut
Cisco arbeitet nicht allein. Es setzt Container- und Multicloud-Computing-Modelle ein, um Open-Source-Software in großem Maßstab auszurollen, unabhängig davon, wo die Apps liegen. Es validiert maschinelle Lernumgebungen und Software wie Anaconda, Kubeflow und Lösungen von Cloudera und Hortonworks auf dem neuen Server. UCS-Kunden, die Kubeflow auf Kubernetes verwenden, können KI-Workloads direkt in Google Kubernetes Engine implementieren und dabei sowohl On-Premise- als auch Cloud-ML-Funktionen nutzen.
„Wir glauben, dass das Leistungspotenzial maschinellen Lernens für alle Unternehmen verfügbar sein sollte, sei es in der Cloud oder vor Ort. Wir freuen uns darauf, unsere Zusammenarbeit mit Cisco fortzusetzen“, sagt David Aronchick, Produktmanager bei Google Cloud. „Wir freuen uns, dass Cisco hybride Cloud-Lösungen für Machine Learning entwickelt und auch Code für das von Google geleitete Open-Source-Projekt Kubeflow beisteuert. Unternehmen, die Kubeflow auf dem neuen UCS C480 Deep Learning Server einsetzen, werden von konsistenten Werkzeugen für maschinelles Lernen profitieren, die sowohl vor Ort als auch in der Google Cloud hervorragend funktionieren.“
„Die Integration der NVIDIA Tesla V100 Tensor Core GPUs in den neuen UCS-Server von Cisco bietet Unternehmen in jeder Branch eine leistungsstarke neue Lösung zur Weiterentwicklung ihrer KI-Initiativen“, sagt Ian Buck, Vice President und General Manager of Accelerated Computing bei NVIDIA. „Mit NVIDIA Grafikprozessoren können KI-Modelle, die bisher wochenlang Rechenressourcen benötigt haben, nun in wenigen Stunden trainiert werden, so dass mit KI eine ganz neue Art von Problemen gelöst werden kann.“
Verfügbarkeit
Der Cisco UCS C480 ML M5 Rack Server baut auf dem Portfolio der Cisco UCS B-Series-, C-Series- und HyperFlex-Systemen auf. Er wird im vierten Quartal 2018 bei Cisco-Partnern erhältlich sein, zusammen mit einer Reihe von AI- und ML-Supportfunktionen von Cisco Services, die Analytik, Deep-Learning und Automatisierung umfassen.
Be the first to comment