NEWS-CENTER

NVIDIA veröffentlicht den weltweit ersten Deep Learning Großrechner

NVIDIA DGX-1 ermöglicht maschinelles Lernen mittels Datendurchsatz von 250 Servern für die massive Rechenanforderung künstlicher Intelligenz

Weitere Informationen:  
Christian Beer
NVIDIA
PR Manager D/A/CH
cbeer@nvidia.com


Gebhardt Böhles Public Relations GmbH
Boris Böhles
Geschäftsführender Gesellschafter
Tel. +49 (0) 89 9230 6709 22
boehles@gbpublic.de

dgx1

SAN JOSE, Kalifornien—GPU Technology Conference— 5. April, 2016— NVIDIA hat heute den NVIDIA® DGX-1™ vorgestellt, den weltweit erste Deep Learning Großrechner, der die unbegrenzten Rechenanforderungen von künstlicher Intelligenz (KI) erfüllt.

Der NVIDIA DGX-1 ist das erste System, das speziell für maschinelles Lernen entwickelt wurde – es ist komplett ausgestattet mit Hardware, Deep Learning Software und Entwicklungstools für den schnellen und einfachen Einsatz. Das schlüsselfertige System verfügt über eine neue Generation von GPU-Beschleunigern, die einen Datendurchsatz von ungefähr 250 x86-Servern bieten.1

Das DGX-1 Deep Learning System ermöglicht es Forschern und Data Scientists, die Leistung von GPU-beschleunigter Datenverarbeitung auf einfache Weise zu nutzen. Damit lässt sich eine neue Art von intelligenten Maschinen erstellen, die lernen, sehen und die Welt genauso wahrnehmen, wie Menschen es tun. Es bietet unerreichte Stufen an Rechenleistung, um die nächste Generation von KI-Anwendungen voranzutreiben. Forscher können damit in kürzerer Zeit größere und anspruchsvollere, tiefe neurale Netzwerke schaffen.

NVIDIA hat das DGX-1 für ein neues Rechenmodell entwickelt, das die KI-Revolution antreibt, welche momentan in Forschung, Unternehmen und vermehrt in allen Aspekten des täglichen Lebens implementiert wird. Leistungsstarke, tiefe neuronale Netzwerke bringen neue Software-Typen hervor, die auf riesigen Datenmengen basieren und so ein Vielfaches an Rechenleistung erfordern.

„Künstliche Intelligenz ist die weitreichendste technologische Forschung die es derzeit gibt“, sagte Jen-Hsun Huang, CEO und Mitbegründer von NVIDIA. „Es verändert jede Branche, jedes Unternehmen, einfach alles. Es wird Märkte öffnen und jedem nützen. Data Scientists und KI-Forscher verwenden momentan zu viel Zeit auf selbstgefertigten Hochleistungsrechenlösungen. Das DGX-1 ist einfach anzuwenden und wurde für einen Zweck entwickelt: um die Stärken von übermenschlichen Leistungen verfügbar zu machen und mit diesen Probleme zu lösen, die man bisher für unlösbar hielt.“

Unterstützt von fünf bahnbrechenden Innovationen
Das NVIDIA DGX-1 Deep Learning System ist aufgebaut auf den NVIDIA Tesla® P100 GPUs, die auf der NVIDIA Pascal™ GPU-Architektur basieren. Es bietet einen Datendurchsatz von 250 CPU-basierten Servern inklusive Netzwerken, Kabeln und Racks – alles in einem Gerät.

Das DGX-1 verfügt über vier weitere bahnbrechende Technologien, die die Leistung maximieren und die Benutzung erleichtern. Dazu gehören NVIDIA NVLink™ High-Speed Interconnect für höchste Skalierbarkeit der Anwendung, die 16nm FinFET Fertigungstechnologien für unerreichte Energieeffizienz, Chip-on-Wafer-on-Substrate mit High Bandwidth Memory 2 für große Datenmengen, und neue Half-Precision-Anweisungen für mehr als 21 Teraflops Höchstleistung für maschinelles Lernen.

Zusammen erlauben diese technischen Fortschritte es dem DGX-1 System eine über zwölffach bessere Leistung im Vergleich zu Lösungen, die auf der Four-Way NVIDIA Maxwell™ Architektur basieren.

Die Pascal-Architektur erfährt im KI-Ökosytem eine starke Unterstützung.
„Die NVIDIA GPU beschleunigt den Fortschritt im Rahmen der Künstlichen Intelligenz. Durch die Tatsache, dass neurale Netze immer komplexer werden brauchen wir schnellere GPUs mit größerem Speicher und auch viel bessere Kommunikation zwischen den GPUs. Genau das liefert Pascal“, sagt Yann LeCun, Direktor für KI bei Facebook.

“Microsoft entwickelt derzeit sehr tiefe neuronale Netze mit mehr als 1.000 Schichten, sagt Xuedong Huang, Chief Speech Scientist bei Microsoft Research. „Die Leistungsfähigkeit von NVIDIAs Tesla P100 wird uns helfen Microsofts CNTK noch besser für KI zu positionieren.“

Umfassende Deep Learning Software Suite
Das NVIDIA DGX-1 System enthält eine komplette Suite mit optimierter Deep Learning Software, damit Forscher und Data Scientists schnell und einfach tiefe neuronale Netzwerker entwickeln können. Dazu gehört das NVIDIA Deep Learning GPU Training System (DIGITS™), ein umfassendes und interaktives System für die Entwicklung tiefer neuronaler Netzwerke (DNN). Außerdem enthalten ist die neue NVIDIA CUDA® Deep Neural Network library (cuDNN) version 5, eine GPU-beschleunigte Bibliothek mit Vorlagen zur Entwicklung von DNNs, optimierte Versionen der üblichen Deep Learning Frameworks wie Caffe, Theano und Torch sowie Zugang zu Cloud Managament Tools.

Systemspezifikationen
Das NVIDIA DGX-1 System verfügt unter anderem über:

  • Bis zu 170 Teraflops für Half-Precision (FP16) Höchstleistung
  • Acht Tesla P100 GPU Beschleuniger, 16GB Speicher pro GPU
  • NVLink Hybrid Mesh Cube
  • 7TB SSD DL Cache
  • Dual 10GbE, Quad InfiniBand 100Gb Netzwerk
  • 3U – 3200W

Weitere Informationen zum Support sind verfügbar unter http://www.nvidia.de/object/dgx1-support-de.html.

Verfügbarkeit
Das NVIDIA DGX-1 Deep Learning System wird in den USA im Juni und in anderen Regionen im dritten Quartal direkt bei NVIDIA oder Systemintegratoren erhältlich sein.

Weitere Ressourcen

Bleiben Sie bei NVIDIA auf dem Laufenden:


Über NVIDIA
NVIDIA (NASDAQ: NVDA) leistet seit 1993 Pionierarbeit auf dem Gebiet des visuellen Computings. Die Technologien des Unternehmens transformieren Bildschirmwelten in eine Welt von interaktiven Erlebnissen für Gamer und Wissenschaftler, für Endkunden und Unternehmen. Weitere Informationen gibt es unter http://www.nvidia.de und http://www.nvidia.de/page/newsandevents.html.

______________________________________________________

(1) Compared to Caffe/AlexNet time to train ILSVRC-2012 dataset on cluster of two-socket Intel Xeon E5-2697 v3 processor-based systems with InfiniBand interconnect. 250-node performance estimated using source: https://software.intel.com/en-us/articles/caffe-training-on-multi-node-distributed-memory-systems-based-on-intel-xeon-processor-e5.