NEWS-CENTER

NVIDIA präsentiert High-Speed-Interconnect von GPUs – Wegbereitung zu Exascale-Computing

NVLink ermöglicht eng miteinander verbundene CPUs und GPUs

Weitere Informationen:  
NVIDIA
Susanna Tatár
statar@nvidia.com


Gebhardt Böhles Public Relations GmbH
Boris Böhles
Geschäftsführender Gesellschafter
Tel. +49 (0) 89 9230 6709 22
boehles@gbpublic.de

San Jose, Kalifornien, GTC, 25. März 2014 — NVIDIA stattet künftige GPUs mit einer High-Speed-Verbindung namens NVIDIA NVLink aus. Mit ihr können GPUs und CPUs Daten fünf- bis zwölfmal schneller austauschen als bisher. Dies beseitigt einen jahrelangen Flaschenhals und ebnet den Weg für eine neue Generation von Exascale-Computern, die 50- bis 100-mal schneller sind als die heute schnellsten Systeme.

NVIDIA integriert die NVLink-Technologie in seine Pascal-GPU-Architektur, die voraussichtlich im Jahr 2016 auf die neue Maxwell-Architektur dieses Jahres folgt. Die neue High-Speed-Verbindung wurde in Zusammenarbeit mit der Firma IBM entwickelt, die sie in ihre zukünftigen POWER-CPUs einbindet.

„Die NVLink-Technologie setzt das volle Potenzial der GPU frei, indem der Datenverkehr zwischen CPU und GPU immens verbessert wird. Die Zeit, die die GPU auf zu berechnende Daten warten muss, minimiert sich“, sagt Brian Kelleher, Senior Vice President of GPU Engineering bei NVIDIA.

„NVLink ermöglicht schnellen Datenaustausch zwischen CPU und GPU und verbessert dadurch den Datendurchsatz des gesamten Computing-Systems. Ein wesentlicher Flaschenhals bei heutigem beschleunigtem Computing wird überwunden“, sagt Bradley McCredie, Vice President and IBM Fellow bei IBM. „NVLink macht es für Entwickler leichter, High-Performance- und Datenanalyse-Applikationen zu modifizieren und die Vorteile von beschleunigten CPU-GPU-Systemen zu nutzen. Wir glauben, dass diese Technologie einen signifikanten Beitrag zu unserem OpenPOWER-Ökosystem leistet.“

Durch die NVLink-Technologie werden IBM-POWER-CPUs eng mit NVIDIA-Tesla-GPUs verbunden. Ökosysteme von POWER-Rechenzentren können damit GPU-Beschleunigung in diversen Applikationen wie High Performance Computing, Datenanalyse und maschinelles Lernen nutzen.

Vorteile gegenüber PCI Express 3.0
Heutige GPUs sind mit x86-basierten CPUs über das PCI-Express-(PCIe)-Interface verbunden. Dies limitiert die Fähigkeit der GPU, auf das Speichersystem der CPU zuzugreifen und ist vier- bis fünfmal langsamer als klassische CPU-Speichersysteme. PCIe ist ein noch größerer Flaschenhals zwischen GPU und IBM-POWER-CPUs, die eine größere Bandbreite als x86-CPUs haben. Da das NVLink-Interface der Bandbreite typischer CPU-Speichersysteme entspricht, können GPUs auf den CPU-Speicher mit voller Bandbreite zugreifen.

Diese Verbindung mit hoher Bandbreite verbessert die Leistung beschleunigter Software-Applikationen enorm. Durch die Unterschiede in den Speichersystemen – GPUs haben schnelle, aber kleine Speicher und CPUs haben große, aber langsame Speicher – verschieben beschleunigte Computing-Applikationen normalerweise Daten vom Netzwerk oder einem Speichermedium in den CPU-Speicher und kopieren anschließend die Daten in den GPU-Speicher. Erst dann können die GPUs sie verwerten. Mit NVLink bewegen sich die Daten zwischen dem CPU- und dem GPU-Speicher sehr viel schneller und lassen GPU-beschleunigte Anwendungen mit deutlich höherer Geschwindigkeit laufen.

Unified-Memory-Funktion
Durch die Verbindung von schnellem Datentransfer und einer Funktion, die als Unified Memory bekannt ist, vereinfacht sich die Programmierung von GPU-Beschleunigern. Unified Memory erlaubt es Programmierern, den Speicher von CPU und GPU als einen einzelnen Memory-Block zu behandeln. Die Programmierer können an den Daten arbeiten, ohne darauf zu achten, ob sie im Speicher der CPU oder der GPU liegen.

Obwohl zukünftige NVIDIA-GPUs weiterhin PCIe unterstützen, wird die NVLink-Technologie dazu benutzt werden, GPUs mit NVLink-fähigen CPUs zu verbinden und Verbindungen mit hohen Bandbreiten direkt zwischen mehreren GPUs zu ermöglichen. Zusätzlich ist NVLink trotz der sehr hohen Bandbreiten deutlich energieeffizienter als PCIe pro übertragenem Bit.

NVIDIA hat ein Modul für GPUs, die auf der Pascal-Architektur mit NVLink basieren, entwickelt. Dieses neue Modul ist nur etwa ein Drittel so groß wie Standard-PCIe-Boards, wie sie heutzutage für GPUs benutzt werden. Das Pascal-Modul wird durch am unteren Ende liegende Verbindungen in das Motherboard gesteckt. Dies verbessert das Systemdesign und die Signalintegrität.

Die NVLink-High-Speed-Interconnect ermöglicht es eng verbundenen Systemen, zu hoch energieeffizienten und skalierbaren Exascale-Supercomputern zu werden, die mit 1.000 Petaflops (1 x 1018 Floating-Points-Operationen pro Sekunde) – oder 50 bis 100 mal schneller als die heutigen schnellsten Systeme – arbeiten.

Bleiben Sie bei NVIDIA auf dem Laufenden:


Über NVIDIA
NVIDIA (NASDAQ: NVDA) leistet seit 1993 Pionierarbeit auf dem Gebiet des visuellen Computings. Die Technologien des Unternehmens transformieren Bildschirmwelten in eine Welt von interaktiven Erlebnissen für Gamer und Wissenschaftler, für Endkunden und Unternehmen. Weitere Informationen gibt es unter http://www.nvidia.de und http://www.nvidia.de/page/newsandevents.html.