NVIDIA HGX-2

Beschleunigt durch NVIDIA Tesla V100-Grafikprozessoren und NVSwitch

DIE WELTWEIT LEISTUNGSSTÄRKSTE MULTI-PRECISION-COMPUTING-PLATTFORM FÜR KI UND HPC

Ein neues Zeitalter der Informationstechnologie bricht an, in dem KI und High Performance Computing (HPC) unsere Welt verwandeln. Von selbstfahrenden Autos bis hin zu Simulationen des globalen Klimas: Um die neuen Herausforderungen zu meistern, sind enorme Rechenressourcen erforderlich. NVIDIA HGX-2 ist auf Multi-Precision-Computing ausgelegt. Hierbei wird wissenschaftliches High-Precision-Computing mit der Schnelligkeit von KI-Computing kombiniert, bei dem die Präzision normalerweise geringer ist. So entsteht eine einheitliche, flexible und leistungsstarke Plattform, mit der sich diese massiven Herausforderungen bewältigen lassen.

Unterstützung für den weltweit größten Grafikprozessor

Dank der Beschleunigung durch 16 NVIDIA® Tesla® V100-Grafikprozessoren und mithilfe von NVIDIA NVSwitch™ bietet HGX-2 eine beispiellose Rechenleistung, Bandbreite und Speichertopologie, um diese Modelle schneller und effizienter zu trainieren. Die 16 Tesla V100-Grafikprozessoren agieren als einheitlicher 2-PetaFLOPS-Beschleuniger mit einem Grafikprozessor-Gesamtspeicher von einem halben Terabyte (TB), sodass damit die rechenintensivsten Aufgaben erledigt werden können und der„ weltweit größte Grafikprozessor“ bereitgestellt werden kann.

Ermöglicht den weltweit größten Grafikprozessor
KI-Training: HGX-2 ersetzt 300 reine CPU-Serverknoten

KI der nächsten Generation beschleunigen

Die Komplexität der KI-Modelle hat enorm zugenommen. Sie erfordern einen großen Speicher, mehrere Grafikprozessoren und eine extrem schnelle Verbindung zwischen den Grafikprozessoren, um eine ordnungsgemäße Funktion zu gewährleisten. Mit NVSwitch, die alle Grafikprozessoren und den einheitlichen Speicher verbinden, verfügt die HGX-2 über die notwendige Leistungsfähigkeit zur Unterstützung dieser neuen Modelle, um ein schnelleres Training der modernen KI zu ermöglichen. Eine einzelne HGX-2 ersetzt 300 Server mit CPU, sodass erheblich weniger Kosten anfallen und auch der Platz- und Energiebedarf im Rechenzentrum reduziert wird.

HPC: HGX-2 ersetzt 60 reine CPU-Serverknoten

HPC-Superknoten mit Höchstleistung

HPC-Anwendungen erfordern leistungsfähige Serverknoten mit ausreichender Rechenleistung, um eine hohe Anzahl von Berechnungen pro Sekunde durchzuführen. Durch die enorme Erhöhung der Rechendichte jedes Knotens wird die Anzahl der erforderlichen Server erheblich reduziert. Dies führt zu großen Kosteneinsparungen und senkt den Platz- und Energiebedarf in Rechenzentren. Für HPC-Simulationen und die damit verbundene hochdimensionale Matrix-Multiplikation muss ein Prozessor Daten aus vielen Umgebungen abrufen, um die Berechnung zu vereinfachen. Daher ist die Verbindung der Grafikprozessoren durch NVSwitch ideal. Ein einzelner HGX-2-Server ersetzt 60 reine CPU-Server.

NVSwitch für Computing mit voller Bandbreite

Dank NVSwitch kann jeder Grafikprozessor mit einem anderen Grafikprozessor mit voller Bandbreite von 2,4 TB/Sek. kommunizieren, um die größten KI- und HPC-Probleme zu beheben. Jeder Grafikprozessor hat vollen Zugriff auf 0,5 TB des HBM2-Gesamtspeichers und ist in der Lage, die umfangreichsten Datensätze zu verarbeiten. Da durch NVSwitch ein einheitlicher Serverknoten bereitgestellt wird, können komplexe KI- und HPC-Anwendungen erheblich beschleunigt werden.

NVSwitch für Computing mit voller Bandbreite

Technische Daten

HGX-1 HGX-2
Leistung 1 PetaFLOPS Tensor-Operationen
125 TeraFLOPS Single-Precision-Leistung
62 TeraFLOPS Double-Precision-Leistung
2 PetaFLOPS Tensor-Operationen
250 TeraFLOPS Single-Precision-Leistung
125 TeraFLOPS Double-Precision-Leistung
Grafikprozessoren 8 × NVIDIA Tesla V100 16 × NVIDIA Tesla V100
Grafikprozessorspeicher 256 GB (gesamt) 512 GB (gesamt)
NVIDIA CUDA® Recheneinheiten 40,960 81,920
NVIDIA Tensor-Recheneinheiten 5,120 10,240
Kommunikationskanal Hybrid-Cube-Mesh mit NVLink 300 GB/s Bisektionsbandbreite NVSwitch mit NVLink 2.4 TB/s Bisektionsbandbreite

HGX-1-Referenzarchitektur

Beschleunigt durch NVIDIA Tesla-Grafikprozessoren und NVLink

NVIDIA HGX-1 ist eine Referenzarchitektur, die das Design der Rechenzentren standardisiert und die KI in der Cloud beschleunigt. Basierend auf acht Tesla SXM2 V100-Boards, einer Hybrid-Cube-Mesh-Topologie für Skalierbarkeit und einer Rechenleistung von 1 PetaFLOPS verfügt diese Architektur über ein modulares Design, das sich nahtlos in Hyperscale-Rechenzentren integrieren lässt und einen schnellen, einfachen Weg zu KI ermöglicht.

Mehr Leistung für das Ökosystem des Rechenzentrums

NVIDIA arbeitet mit weltweit führenden Herstellern zusammen, um das KI-Cloud-Computing schnell voranzutreiben. NVIDIA stellt HGX-2-Grafikprozessor-Baseboards, Design-Richtlinien und frühen Zugriff auf Grafikprozessor-Computing-Technologien für Partner bereit. Diese lassen sich dann in die Server integrieren, um enorme Leistungsvorteile für die Rechenzentrum-Ökosysteme zu erzielen.

Mehr Leistung für das Ökosystem des Rechenzentrums

Registrieren und Neuigkeiten rund ums Rechenzentrum erhalten

Sie erhalten alle aktuellen Neuigkeiten zu High-Performance-Computing, Deep Learning und künstlicher Intelligenz.