Tesla

ERMÖGLICHEN NEUE LEVEL DES BENUTZER ENGAGEMENTS
Erhöhen den Durchsatz und die reaktionsfähigen Erfahrungen bei Deep-Learning-Inferenz Arbeitslasten.
Erhöhen den Durchsatz und die reaktionsfähigen Erfahrungen bei Deep-Learning-Inferenz Arbeitslasten

BESCHLEUNIGTE DEEP-LEARNING-INFERENZ

Mit künstlicher Intelligenz (KI) ist ein neues Zeitalter angebrochen, in dem Deep Learning bei komplexen Aufgaben Präzision auf einem Niveau ermöglicht, das weit über das menschliche Leistungsvermögen hinausgeht. So sorgt Deep Learning in vielerlei Hinsicht für Fortschritte im Alltag. Interaktive Sprache, Computer Vision und Analysen für Prognosen – dies sind nur wenige der vielen Bereiche, in denen mit Deep-Learning-Modellen, die auf Grafikprozessoren trainiert wurden, beeindruckende Ergebnisse erzielt wurden, die man bislang nicht für möglich hielt.

Wenn moderne neuronale Netzwerke auf CPUs zur Inferenz bereitgestellt werden, erreichen KI-basierte Services nicht die Reaktionsgeschwindigkeit, die für Nutzerinteraktionen erforderlich sind. Die Grafikprozessoren NVIDIA® Tesla® P40 und P4 sind die ideale Lösung. Sie sind auf maximalen Durchsatz und extreme Reaktionsschnelligkeit bei Inferenz-Workloads für Deep Learning ausgelegt. Dank der NVIDIA Pascal™-Architektur bieten sie eine mehr als 60-mal schnellere Inferenzleistung als CPUs und ermöglichen so selbst in den komplexesten Deep-Learning-Modellen Echtzeitreaktionen.

 

NVIDIA TESLA-INFERENZBESCHLEUNIGER

Deep Learning Inference Latency

Deep Learning Inference Throughput

 
NVIDIA Tesla P40

MAXIMALER DURCHSATZ BEI DEEP-LEARNING-INFERENZ

Der Tesla P40 ist speziell auf maximalen Durchsatz bei Deep-Learning-Workloads ausgelegt. Mit einer Inferenzleistung von 47 TOPS (Tera-Operations Per Second) pro Grafikprozessor kann ein einzelner Server mit acht Tesla P40-Einheiten mehr als 100 CPU-Server ersetzen.

Pdf
Tesla P40– Datenblatt (PDF – 166KB)
 

EXTREM EFFIZIENTES DEEP LEARNING AUF SCALE-OUT-SERVERN

Der Tesla P4 beschleunigt jeden Scale-Out-Server und bietet eine beeindruckende Energieeffizienz, welche die von CPUs um das 40-Fache übersteigt.

Pdf
Tesla P4 – Datenblatt (PDF – 164KB)
Tesla P4
 

DEEP-LEARNING-BESCHLEUNIGER – MERKMALE UND VORTEILE

Diese Grafikprozessoren ermöglichen schnellere Prognosen, die bei KI-Anwendungen für eine beeindruckende Nutzererfahrung sorgen.

 
100-mal höherer Durchsatz zur Bewältigung immer größerer Datenvolumen

100-mal höherer Durchsatz zur Bewältigung immer größerer Datenvolumen

Jeden Tag werden neue Daten generiert: Sensorprotokolle, Bilder, Videos und Aufzeichnungen. Diese Daten sind so umfangreich, dass eine Verarbeitung auf CPUs aus wirtschaftlicher Sicht nicht sinnvoll ist. Grafikprozessoren mit der Pascal-Architektur ermöglichen in Rechenzentren eine erhebliche Steigerung des Durchsatzes von Workloads zur Bereitstellung von Deep Learning. Außerdem lassen sich so aus der gewaltigen Datenflut sinnvolle Informationen gewinnen. Ein einziger Server mit acht Tesla P40s kann bis zu 100 reine CPU-Server für Deep-Learning-Workloads ersetzen und bietet erheblich höheren Durchsatz bei geringeren Beschaffungskosten.

 
Dedizierte Decodier-Engine für neue KI-basierte Videodienste

Dedizierte Decodier-Engine für neue KI-basierte Videodienste

Die Grafikprozessoren Tesla P4 und P40 können bis zu 39 HD-Videosignale in Echtzeit analysieren. Hierzu wird eine dedizierte Decodier-Engine mit Hardwarebeschleunigung verwendet, die parallel mit den NVIDIA CUDA®-Recheneinheiten für die Inferenz ausgeführt wird. Durch die Integration von Deep Learning in die Videopipeline können Kunden den Benutzern intelligente, innovative Videodienste auf einem völlig neuen Niveau anbieten.

Bisher unerreichte Effizienz für Scale-Out-Server mit niedrigem Stromverbrauch

Bisher unerreichte Effizienz für Scale-Out-Server mit niedrigem Stromverbrauch

Der ultraeffiziente Tesla P4-Grafikprozessor beschleunigt in Bezug auf die Dichte optimierte Scale-Out-Server mit kleinem Formfaktor und 50 bzw. 75 W Leistungsaufnahme. Bei Workloads für Deep-Learning-Inferenz übertrifft seine Energieeffizienz die von CPUs um das 40-Fache. Dies ermöglicht Hyperscale-Kunden eine Skalierung innerhalb ihrer bestehenden Infrastruktur und die Bewältigung des exponentiellen Wachstums bei KI-basierten Anwendungen.



 
Schnellere Bereitstellung mit NVIDIA TensorRT™ und dem DeepStream SDK

Schnellere Bereitstellung mit NVIDIA TensorRT™ und dem DeepStream SDK

NVIDIA TensorRT ist eine extrem leistungsfähige Inferenz-Engine für neuronale Netzwerke, die in der Produktionsbereitstellung von Deep-Learning-Anwendungen eingesetzt wird. Sie umfasst eine Bibliothek zur Optimierung von Deep-Learning-Modellen für die Produktionsbereitstellung. Dabei werden trainierte neuronale Netze, die normalerweise 32- oder 16-Bit-Daten umfassen, hergenommen und für INT8-Operationen mit reduzierter Genauigkeit optimiert. Das NVIDIA DeepStream SDK nutzt die Leistung von Grafikprozessoren mit der Pascal-Architektur, um Videostreams gleichzeitig zu decodieren und zu analysieren.

 

LEISTUNGSSPEZIFIKATION FÜR DIE NVIDIA-GRAFIKPROZESSOREN TESLA P40 UND P4

 
  Tesla P4 für ultra-effiziente Scale-Out-Server Tesla P40 für Server mit maximalem Inferenzdurchsatz
Single-Precision-Leistung 5.5 TeraFLOPS 12 TeraFLOPS
Integer-Operationen (INT8) 22 TOPS* 47 TOPS*
Grafikprozessorspeicher 8 GB 24 GB
Speicherbandbreite 192 GB/s 346 GB/s
Systemschnittstelle Low-Profile-PCI-Express-Formfaktor PCI-Express-Formfaktor für zwei Steckplätze mit voller Höhe
Stromversorgung 50 W/75 W 250 W
Video-Engine mit Hardwarebeschleunigung 1 Decodier-Engine, 2 Codier-Engines 1 Decodier-Engine, 2 Codier-Engines

*Tera-Operations per Second (Tera-Operationen pro Sekunde) mit Boost-Taktung

NVIDIA TESLA P40 UND P4 – DATENBLÄTTER

Pdf
Tesla P40– Datenblatt (PDF – 166KB)
Pdf
Tesla P4 – Datenblatt (PDF – 164KB)
 
 

NVIDIA TESLA P40 UND P4 NOCH HEUTE HOLEN

Der Tesla P40 und der Tesla P4 sind ab sofort für Deep-Learning-Inferenz verfügbar.

BEZUGSQUELLEN

 
CUDA und GPU Computing

Was ist GPU Computing?
Wissenswertes über
GPU Computing

Grafikprozessor-Programmierung
Kepler Grafikprozessor-
Architektur

GPU-Cloud-Computing
Kontaktieren Sie Uns

Was ist CUDA?
CUDA Showcase
Was ist CUDA?
CUDA Centers of Excellence
CUDA-Kurskalender
CUDA Forschungszentren
CUDA Ausbildungszentren

Grafikprozessor-Anwendungen

Tesla Grafikprozessor-Anwendungen
Tesla Fallstudien
Tesla Grafikprozessor-Test
OpenACC-Direktiven
GeoInt Accelerator

Tesla Grafikprozessoren
für Server und Workstations

Warum Tesla
Tesla Server-Lösungen
Tesla Workstation-Lösungen
Embedded Entwicklungsplattform
Tesla Grafikprozessoren kaufen

Tesla News
und Informationen

Tesla Produktdokumentation
Tesla Softwaremerkmale
Tesla Software-
Entwicklungstools

NVIDIA Forschung
Tesla Mitteilungen

Aktuelle News Online

NVIDIA Blog NVIDIA Blog

Facebook Facebook

Twitter Twitter

Twitch Twitch

YouTube YouTube