Der "Neural Compute Stick" der Intel-Tochter Movidius soll die Entwicklung von Deep-Learning-Lösungen vorantreiben. Der passiv gekühlte Mikrorechner kostet nur 80 US-Dollar. [...]
Die Intel-Tochter Movidius hat einen USB-Rechenstick vorgestellt, der speziell für die Verarbeitung von Deep-Learning-Berechnungen vorgesehen ist. Besonders bei der maschinellen Bild- und Mustererkennung sollen die Stärken des nur 80 US-Dollar teuren Neural Compute Stick liegen. Aktuell ist das Gerät allerdings nur in den USA erhältlich.
Im Inneren des Mikrorechners steckt eine Vision Processing Unit (VPU), die sich mit einem Verbrauch von 1 Watt begnügt. Dabei erreicht das System eine Rechenleistung von über 100 Gigaflops – genug, um Deep Learning Networks direkt auf dem Gerät in Echtzeit auszuführen. Die VPU basiert auf dem Myriad-2-Chipset, das mit rund 600 MHz arbeitet und über einen L2-Cache von 256 KB verfügt. Der nur 2 MB grosse Speicher erlaubt Transferraten von 400 GB/s. Unterstützt werden FP16- und FP32-Operationen und Integer-Operationen mit 8, 16 oder 32 Bit.
Movidius setzt auf Caffe
Auf eine Cloud-Anbindung ist die kompakte Lösung nicht angewiesen. An AI-Frameworks unterstützt der Rechenstick lediglich die Open-Source-Software „Caffe“. Entwickler, die auf mehr Leistung angewiesen sind, können auch mehrere Sticks über einen USB-Hub gemeinsam nutzen.
Mit dem PC wird das Gerät über einen gewöhnlichen USB-3.0-Port (Typ A) angeschlossen. Als Host-PC ist mindestens ein 64-Bit-System mit Ubuntu 16.04, 1 GB RAM, 4 GB freiem Speicher und USB 2.0 erforderlich. Für eine optimale Performance empfiehlt der Hersteller jedoch einen PC mit USB-3.0-Anschluss.
Im Vergleich zu professioneller KI-Hardware wie Nvidias Quadro-Pascal-GPUs ist der Neural Compute Stick von Movidius natürlich ein Leistungszwerg. Dafür ist die Lösung um ein Vielfaches günstiger und sogar mobil sowie offline einsetzbar.
*Stefan Bordel ist Redakteur von PCTIPP.
Be the first to comment