NVIDIA Tesla V100

Der bislang fortschrittlichste KI-Grafikprozessor

Willkommen im KI-Zeitalter

Informationen und Wissen sind in jeder Branche gefragt. In der immer gewaltigeren Fülle an Daten verbergen sich Informationen, die ganze Branchen revolutionieren könnten. Von individueller Krebstherapie bis hin zu Hurrikanprognosen und virtuellen persönlichen Assistenten, die natürlich kommunizieren – all das kann Einzug in die Realität halten, wenn Datenwissenschaftler das richtige Tool zur Verfügung haben.

Der NVIDIA® Tesla® V100 ist der bisher fortschrittlichste Grafikprozessor für Rechenzentren und beschleunigt KI-, HPC- und Grafikanwendungen. Der Tesla V100 basiert auf NVIDIA Volta, der neuesten Grafikprozessorarchitektur, und vereint die Leistung von 100 CPUs in einer einzelnen Grafikeinheit. Dadurch können Datenwissenschaftler, Forscher und Techniker nun endlich Herausforderungen bewältigen, die früher als unüberwindbar galten.

AI Training

KI-Training

Spracherkennung. Virtuelle persönliche Assistenten mit dem Ziel natürlicher Kommunikation trainieren. Fahrbahnspuren erkennen, sodass Autos selbständig fahren können. Dies sind nur wenige Beispiele für die immer komplexeren Herausforderungen, denen sich Datenwissenschaftler mithilfe von KI stellen. Um derartige Probleme zu lösen, müssen deutlich komplexere Deep-Learning-Modelle in einem angemessenen Zeitraum trainiert werden.

Mit 43.000 Tensor-Recheneinheiten ist der Tesla V100 der weltweit erste Grafikprozessor, der bei der Deep-Learning-Leistung die 100-TOPS-Schallmauer durchbricht. NVIDIA NVLink™ der zweiten Generation verbindet mehrere Tesla V100-Grafikprozessoren mit Übertragungsgeschwindigkeiten bis zu 160 GB/s. So entstehen die weltweit leistungsstärksten Computing-Server. KI-Modelle, die die Rechenressourcen früherer Systeme mehrere Wochen lang beanspruchen würden, lassen sich nun innerhalb weniger Tage trainieren. Dank der erheblich kürzeren Trainingszeiten bietet sich KI nun als Lösung für deutlich mehr Probleme an.

AI Inference

KI-Inferenz

Um uns Zugriff auf die relevantesten Informationen, Services und Produkte zu bieten, haben Hyperscale-Unternehmen damit begonnen, KI einzusetzen. Doch es ist nicht einfach, den Anforderungen der Nutzer jederzeit gerecht zu werden. Die größten Hyperscale-Unternehmen der Welt müssten beispielsweise laut eigener Schätzungen die Kapazität ihrer Rechenzentren verdoppeln, wenn jeder Nutzer nur drei Minuten pro Tag seinen Spracherkennungsdienst nutzen würde.

Der Tesla V100 für Hyperscale ist auf maximale Leistung in bestehenden Hyperscale-Serverracks ausgelegt. Dank KI-Leistung bietet ein 13-kW-Serverrack mit Tesla V100-Grafikprozessoren die gleiche Leistung für Deep-Learning-Inferenz wie 30 CPU-Serverracks. Dieser gewaltige Fortschritt bei Durchsatz und Effizienz bedeutet, dass die Ausweitung von KI-Services sinnvoll ist.

High Performance Computing

High Performance Computing (HPC)

HPC ist eine der Säulen der modernen Wissenschaft. Von der Wettervorhersage über die Medikamentenentwicklung bis hin zur Entdeckung neuer Energiequellen – Forscher in vielen Bereichen setzen riesige Computersysteme für Simulationen und Prognosen ein. KI erweitert die Möglichkeiten des traditionellen HPC. Denn Forscher sind damit in der Lage, gewaltige Datenmengen zu analysieren und wertvolle Informationen daraus zu gewinnen, während anhand von Simulationen alleine keine vollständigen Prognosen realer Entwicklungen möglich sind.

Der Tesla V100 ist auf die Konvergenz von HPC und KI ausgelegt. Er bietet sich als Plattform für HPC-Systeme an, die in der Computerwissenschaft für wissenschaftliche Simulationen und in der Datenwissenschaft zum Identifizieren wertvoller Informationen in Daten eingesetzt werden. Durch die Kombination von CUDA- und Tensor-Recheneinheiten innerhalb einer einheitlichen Architektur kann ein einzelner Server mit Tesla V100-Grafikprozessoren bei herkömmlichen HPC- und bei KI-Workloads Hunderte standardmäßige reine CPU-Server ersetzen. Nun kann sich jeder Forschungsmitarbeiter und Techniker einen KI-Supercomputer leisten, der ihn bei den größten Herausforderungen unterstützt.

GRAFIKPROZESSOREN FÜR RECHENZENTREN

data-center-tesla-v100-nvlink-625-ud@2x

NVIDIA TESLA V100 FÜR NVLINK

Ultimative Leistung für Deep Learning

data-center-tesla-v100-pcie-625-ud@2x

NVIDIA TESLA V100 FÜR PCle

Optimale Vielseitigkeit bei allen Workloads, auf HPC ausgelegt

NVIDIA Tesla V100 Spezifikationen

 

Tesla V100 für NVLink

Tesla V100 für PCIe

LEISTUNG
with NVIDIA GPU Boost

DOPPELTE GENAUIGKEIT
7.8 TeraFLOPS

EINFACHE GENAUIGKEIT
15.7 TeraFLOPS

Deep Learning
125 TeraFLOPS

DOPPELTE GENAUIGKEIT
7 TeraFLOPS

EINFACHE GENAUIGKEIT
14 TeraFLOPS

Deep Learning
112 TeraFLOPS

VERBINDUNGSBANDBREITE
Bidirektional

NVLink
300 GB/s

PCIe
32 GB/s

SPEICHER
CoWoS-HBM2-Stapelspeicher

KAPAZITÄT
16 GB HBM2

BANDBREITE
900 GB/s

LEISTUNG
Max. Verbrauch


300 WATT


250 WATT

NVIDIA DGX-1
mit der Volta-Architektur

Deep-Learning-Newsletter
abonnieren