Ein neuer Branchenstandard für KI-Cloud-Computing

MIT NVIDIA TESLA P100 UND NVLINK

HGX-1-HYPERSCALE-GRAFIKPROZESSOR FÜR KI-CLOUD-COMPUTING

Mit der Leistung von NVIDIA® Tesla® P100-Grafikprozessoren und der NVIDIA® NVLink™ High-Speed-Verbindungstechnologie  ist der HGX-1 die richtige Lösung zum richtigen Zeitpunkt: Denn die Menge an KI-Workloads, von autonomem Fahren über personalisierte Gesundheitsfürsorge bis hin zu Spracherkennung jenseits des menschlichen Leistungsvermögens, explodiert derzeit förmlich.

Data Center HGX NVLINK

Der HGX-1 wurde speziell für Cloud-Computing entwickelt; seine Architektur bietet revolutionäre Leistung und bislang unerreichte Konfigurierbarkeit. Für erstklassige Leistung sorgen acht NVIDIA Tesla P100-Grafikprozessoren. Diese sind durch das Hybrid-Cube-Mesh-Fabric mit NVLink, das mit dem DGX-1, dem Supercomputer in einem einzigen Gehäuse, eingeführt wurde, miteinander verbunden. Durch seine innovative PCI-Switching-Architektur können sich CPUs dynamisch mit beliebig vielen Grafikprozessoren verbinden. Cloud-Service-Anbieter, die standardmäßig eine einzige HGX-1-Infrastruktur verwenden, können dadurch ihren Kunden eine Reihe von CPU- und Grafikprozessor-Maschineninstanzen anbieten. Gleichzeitig nutzt eine standardmäßige NVLink-Architektur transparent die umfangreiche GPU-Software zur Beschleunigung von KI und anderen Workloads.

Mit dem HGX-1 bieten Hyperscale-Rechenzentren optimale Leistung und Flexibilität für nahezu jeden beschleunigten Workload, z. B. für Deep-Learning-Training, Inferenz, erweiterte Analysen und High Performance Computing. Bei Deep Learning bietet er im Vergleich zu älteren CPU-basierten Servern bis zu 100-mal mehr Leistung und verursacht schätzungsweise nur etwa ein Fünftel der Kosten für KI-Training und ein Zehntel der Kosten für KI-Inferenz.

Durch das modulare Design ist der HGX-1 für die Anwendung in vorhandenen Racks von Rechenzentren weltweit geeignet und bietet Hyperscale-Rechenzentren eine schnelle, einfache Möglichkeit für die Einführung von KI.

 

 

 

Kushagra Vaid GM

Der KI-Beschleuniger HGX-1 ermöglicht eine enorme Skalierung der Leistung, um den Anforderungen von schnell wachsenden Workloads bei maschinellem Lernen gerecht zu werden. Durch das einzigartige Design kann er leicht in bereits bestehenden Rechenzentren weltweit übernommen werden.

— Kushagra Vaid GM, Azure Hardware Infrastructure, Microsoft

Jen-Hsun Huang

KI ist ein neuartiges Computing-Modell, das neuartige Architektur erfordert. Der Hyperscale Grafikprozessor HGX-1 wird für das KI-Cloud-Computing das leisten, was der ATX-Standard für die Verbreitung von PCs geleistet hat. Er wird es Cloud-Service-Anbietern ermöglichen, ganz einfach mit NVIDIA-Grafikprozessoren zu arbeiten, um so der steigenden Nachfrage nach KI-Computing nachzukommen.

— Jensen Huang, Gründer und Chief Executive Officer (CEO) von NVIDIA

NVIDIA HGX-Partnerprogramm

NVIDIA unterstützt weltweit führende Original Design Manufacturers (ODM) – Foxconn/Ingrasys, Inventec, Quanta und Wistron – dabei, die Entwicklung von KI-Computing schneller voranzutreiben. Hierfür ermöglicht NVIDIA jedem ODM frühzeitig Zugang zur NVIDIA HGX-Referenzarchitektur, zu den NVIDIA-Technologien für GPU-Computing und Designrichtlinien.

QCT-Logo-Core-Vertical-RGB-NoMargin
Quanta-Computer
Inventec_en
Wlogo_BG_Gi_R
FOXCONN

REGISTRIEREN UND NEUIGKEITEN RUND UMS RECHENZENTRUM ERHALTEN

Sie erhalten alle aktuellen Neuigkeiten zu High-Performance-Computing, Deep Learning und künstlicher Intelligenz.