Tesla

ERMÖGLICHEN NEUE LEVEL DES BENUTZER ENGAGEMENTS
Erhöhen den Durchsatz und die reaktionsfähigen Erfahrungen bei Deep-Learning-Inferenz Arbeitslasten.
Erhöhen den Durchsatz und die reaktionsfähigen Erfahrungen bei Deep-Learning-Inferenz Arbeitslasten

BESCHLEUNIGTE DEEP-LEARNING-INFERENZ

Mit künstlicher Intelligenz (KI) ist ein neues Zeitalter angebrochen, in dem Deep Learning bei komplexen Aufgaben Präzision auf einem Niveau ermöglicht, das weit über das menschliche Leistungsvermögen hinausgeht. So sorgt Deep Learning in vielerlei Hinsicht für Fortschritte im Alltag. Interaktive Sprache, Computer Vision und Analysen für Prognosen – dies sind nur wenige der vielen Bereiche, in denen mit Deep-Learning-Modellen, die auf Grafikprozessoren trainiert wurden, beeindruckende Ergebnisse erzielt wurden, die man bislang nicht für möglich hielt.

KI-gestützte Dienste müssen ständig mit rasant wachsenden Datenvolumen mithalten und gleichzeitig schnell reagieren. Ein Server mit einem einzelnen Tesla-Grafikprozessor kann bis zu 40-mal mehr Inferenz-Durchsatz als ein reiner CPU-Single-Socket-Server bewältigen. Diese massive Beschleunigung führt zu enormen Kosteneinsparungen in Rechenzentren, die dadurch Skalierungspotenzial nutzen und die immer größere Nachfrage nach KI-gestützten Leistungen bewältigen können.

Zudem sind kurze Reaktionszeiten ein entscheidender Faktor, damit Nutzer Dienste wie visuelle Suche, personalisierte Empfehlungen sowie automatisierten Kundenservice akzeptieren und verwenden. Da Deep-Learning-Modelle immer präziser, umfangreicher und komplexer werden, wird es immer schwieriger, mit CPUs interaktive Nutzererfahrungen zu bieten. Tesla-Grafikprozessoren bieten im Vergleich mit reinen CPU-Servern den 47-fachen Durchsatz bei geringerer Latenz. Somit liefern diese Grafikprozessoren auch die für KI-Erfahrungen erforderliche Reaktionsschnelligkeit.

Mit den Grafikprozessoren NVIDIA® Tesla® V100 und P4 haben Sie die optimale Lösung. Durch die Kombination aus extrem hohem Durchsatz und sehr niedriger Latenz bei Deep-Learning-Inferenz-Workloads stellen sie die nötige Leistung für neue KI-gestützte Erfahrungen bereit.

 
NVIDIA Tesla V100

MAXIMALER DURCHSATZ BEI DEEP-LEARNING-INFERENZ

Der Tesla V100 ist als Grafikprozessor in Rechenzentren universell einsetzbar und bietet bahnbrechende Leistung für HPC, Deep Learning und Remote-Grafikanwendungen. Er ermöglicht bei Deep-Learning-Training und -Inferenz enormen Durchsatz. Mit einer Inferenzleistung von 125 TeraFLOPS pro Grafikprozessor bietet ein einzelner Server mit acht Tesla V100-Einheiten eine Rechenleistung von einem PetaFLOPS.

 
NVIDIA Tesla P40

BEEINDRUCKENDE DEEP-LEARNING-INFERENZ

Der Tesla P40 bietet herausragende Inferenzleistung, INT8-Präzision und 24 GB Onboard-Speicher. Damit wird er jede Rechenumgebung revolutionieren.

Pdf
Tesla P40 - Datenblatt (PDF – 166KB)
 

EXTREM EFFIZIENTES DEEP LEARNING AUF SCALE-OUT-SERVERN

Der Tesla P4 beschleunigt jeden Scale-Out-Server und bietet eine beeindruckende Energieeffizienz, welche die von CPUs um das 40-Fache übersteigt.

Pdf
Tesla P4 – Datenblatt (PDF – 164KB)
Tesla P4
 

DEEP-LEARNING-BESCHLEUNIGER – MERKMALE UND VORTEILE

Diese Grafikprozessoren ermöglichen schnellere Prognosen, die bei KI-Anwendungen für eine beeindruckende Nutzererfahrung sorgen.

 
50-mal höherer Durchsatz zur Bewältigung immer größerer Datenvolumen

100-mal höherer Durchsatz zur Bewältigung immer größerer Datenvolumen

Jeden Tag werden neue Daten generiert: Sensorprotokolle, Bilder, Videos und Aufzeichnungen. Diese Daten sind so umfangreich, dass eine Verarbeitung auf CPUs aus wirtschaftlicher Sicht nicht sinnvoll ist. Tesla V100-Grafikprozessoren mit der Volta-Architektur ermöglichen in Rechenzentren eine erhebliche Steigerung des Durchsatzes von Deep-Learning-Workloads, sodass sich aus der gewaltigen Datenflut sinnvolle Informationen gewinnen lassen. Ein Server mit nur einem Tesla V100 kann bis zu 50 reine CPU-Server für Deep-Learning-Inferenz-Workloads ersetzen und bietet erheblich höheren Durchsatz bei geringeren Beschaffungskosten.

 
Dedizierte Decodier-Engine für neue KI-basierte Videodienste

Dedizierte Decodier-Engine für neue KI-basierte Videodienste

Die Grafikprozessoren Tesla P4 und P40 können bis zu 39 HD-Videosignale in Echtzeit analysieren. Hierzu wird eine dedizierte Decodier-Engine mit Hardwarebeschleunigung verwendet, die parallel mit den NVIDIA CUDA®-Recheneinheiten für die Inferenz ausgeführt wird. Durch die Integration von Deep Learning in die Videopipeline können Kunden den Benutzern intelligente, innovative Videodienste auf einem völlig neuen Niveau anbieten.

Bisher unerreichte Effizienz für Scale-Out-Server mit niedrigem Stromverbrauch

Bisher unerreichte Effizienz für Scale-Out-Server mit niedrigem Stromverbrauch

Der ultraeffiziente Tesla P4-Grafikprozessor beschleunigt in Bezug auf die Dichte optimierte Scale-Out-Server mit kleinem Formfaktor und 50 bzw. 75 W Leistungsaufnahme. Für Deep-Learning-Inferenz-Workloads beeindruckt er mit einer 52-mal höheren Energieeffizienz als CPUs, sodass Hyperscale-Kunden auch innerhalb ihrer bestehenden Infrastruktur Skalierungsmöglichkeiten nutzen und der exponentiell steigenden Nachfrage nach KI-basierten Anwendungen nachkommen können.



 
Schnellere Bereitstellung mit NVIDIA TensorRT™ und dem DeepStream SDK

Schnellere Bereitstellung mit NVIDIA TensorRT™ und dem DeepStream SDK

NVIDIA TensorRT ist eine extrem leistungsfähige Inferenz-Engine für neuronale Netzwerke, die in der Produktionsbereitstellung von Deep-Learning-Anwendungen eingesetzt wird. Sie umfasst Bibliotheken zur Optimierung von Deep-Learning-Modellen für die Produktionsbereitstellung. Dabei werden trainierte neuronale Netze, die normalerweise 32- oder 16-Bit-Daten umfassen, hergenommen und für INT8-Operationen auf dem Tesla P4 oder FP16-Operationen auf dem Tesla V100 mit reduzierter Genauigkeit optimiert. Das NVIDIA DeepStream SDK nutzt die Leistungsstärke von Tesla-Grafikprozessoren, um Videosignale gleichzeitig zu decodieren und zu analysieren.

 

LEISTUNGSSPEZIFIKATION FÜR DIE NVIDIA-GRAFIKPROZESSOREN TESLA P4, P40 UND V100

 
  Tesla V100: der universelle Grafikprozessor fürs Rechenzentrum Tesla P4 für ultra-effiziente Scale-Out-Server Tesla P40 für Server mit hohem Inferenzdurchsatz
Single-Precision-Leistung 14 TeraFLOPS (PCIe)
15,7 TeraFLOPS (SXM2)
5.5 TeraFLOPS 12 TeraFLOPS
Half-Precision-Leistung (FP16) 112 teraflops (PCIe)
125 teraflops (SXM2)
-- --
Integer-Operationen (INT8) -- 22 TOPS* 47 TOPS*
Grafikprozessorspeicher 16 GB HBM2 8 GB 24 GB
Speicherbandbreite 900 GB/s 192 GB/s 346 GB/s
Systemschnittstelle/Formfaktor PCI-Express-Formfaktor für zwei Steckplätze mit voller Höhe
SXM2 / NVLink
Low-Profile-PCI-Express-Formfaktor PCI-Express-Formfaktor für zwei Steckplätze mit voller Höhe
Stromversorgung 250W (PCIe)
300W (SXM2)
50 W/75 W 250 W
Video-Engine mit Hardwarebeschleunigung -- 1 Decodier-Engine, 2 Codier-Engines 1 Decodier-Engine, 2 Codier-Engines

*Tera-Operations per Second (Tera-Operationen pro Sekunde) mit Boost-Taktung

NVIDIA TESLA P40 UND P4 – DATENBLÄTTER

Pdf
Tesla P4 - Datenblatt (PDF – 164KB)
Pdf
Tesla P40 - Datenblatt (PDF – 166KB)
 
 

NVIDIA TESLA P40 UND P4 NOCH HEUTE HOLEN

Der Tesla P40 und der Tesla P4 sind ab sofort für Deep-Learning-Inferenz verfügbar.

BEZUGSQUELLEN

 
CUDA und GPU Computing

Was ist GPU Computing?
Wissenswertes über
GPU Computing

Grafikprozessor-Programmierung
Kepler Grafikprozessor-
Architektur

GPU-Cloud-Computing
Kontaktieren Sie Uns

Was ist CUDA?
CUDA Showcase
Was ist CUDA?
CUDA Centers of Excellence
CUDA-Kurskalender
CUDA Forschungszentren
CUDA Ausbildungszentren

Grafikprozessor-Anwendungen

Tesla Grafikprozessor-Anwendungen
Tesla Fallstudien
Tesla Grafikprozessor-Test
OpenACC-Direktiven
GeoInt Accelerator

Tesla Grafikprozessoren
für Server und Workstations

Warum Tesla
Tesla Server-Lösungen
Tesla Workstation-Lösungen
Embedded Entwicklungsplattform
Tesla Grafikprozessoren kaufen

Tesla News
und Informationen

Tesla Produktdokumentation
Tesla Softwaremerkmale
Tesla Software-
Entwicklungstools

NVIDIA Forschung
Tesla Mitteilungen

Aktuelle News Online

NVIDIA Blog NVIDIA Blog

Facebook Facebook

Twitter Twitter

Twitch Twitch

YouTube YouTube