Tesla

  • CUDA UND GPU COMPUTING
  • GRAFIKPROZESSOR-ANWENDUNGEN
  • GRAFIKPROZESSOREN FÜR SERVER UND WORKSTATIONS
GPU Computing Anwendungen
Divider

Maschinelles Lernen

Datenwissenschaftler sowohl in der Industrie als auch in Hochschulen haben für maschinelles Lernen schon Grafikprozessoren eingesetzt, um in den verschiedensten Anwendungen bahnbrechende Verbesserungen zu erzielen. Darunter zählen z. B. Bildklassifikation, Videoanalyse, Spracherkennung und die Verarbeitung natürlicher Sprache. Insbesondere das Deep Learning – der Einsatz hoch entwickelter, komplexer, auf mehreren Ebenen arbeitender neuronaler Netze zum Aufbau von Systemen, die in der Lage sind, aus riesigen Mengen ungeordneter Trainingsdaten Merkmale zu erkennen – ist ein Bereich, in den beträchtliche Summen investiert werden und der intensiv erforscht wird.

Obwohl maschinelles Lernen bereits seit mehreren Jahrzehnten praktiziert wird, hat es doch erst durch zwei relativ neue Entwicklungen weite Verbreitung erlangt: die Verfügbarkeit riesiger Mengen von Trainingsdaten sowie leistungsstarke und effiziente parallele Datenberechnungen mithilfe von GPU-Computing. Grafikprozessoren werden zum Trainieren dieser komplexen neuronalen Netze eingesetzt. Dabei können in kürzerer Zeit weitaus größere Trainingseinheiten verarbeitet werden und es ist weitaus weniger Rechenzentrumsinfrastruktur erforderlich. Grafikprozessoren werden außerdem zum Trainieren von Modellen für maschinelles Lernen benutzt, um in der Cloud Klassifikationen und Vorhersagen vorzunehmen. Dadurch werden bei einem reduzierten Bedarf an Leistung und Infrastruktur deutlich größere Datenmengen und ein höherer Durchsatz unterstützt.

Viele der größten Unternehmen im Internet und den sozialen Medien sowie führende Forschungseinrichtungen auf dem Gebiet der Datenwissenschaft und des maschinellen Lernens haben sich beim maschinellen Lernen schon früh für Grafikprozessoren als Beschleuniger entschieden. Grafikprozessoren besitzen Tausende von Recheneinheiten und weisen im Vergleich zu Lösungen mit nur CPUs einen um den Faktor 10–100 höheren Anwendungsdurchsatz auf. Daher sind sie bei Datenwissenschaftlern inzwischen die erste Wahl, wenn es um die Verarbeitung umfangreicher Daten geht.

 

Benchmark-Tests für Anwendungen für maschinelles Lernen

SGEMM Performance

Mit Grafikprozessoren lassen sich Sprachaufnahmen und Multimediainhalte viel schneller transkribieren. Im Vergleich zu einer CPU-Implementierung können wir Erkennungen bis zu 33-mal schneller durchführen.

 

- Professor Ian Lane von der Carnegie Mellon University

 

Erfahren Sie, wie andere Datenwissenschaftler ihre Arbeit auf dem Gebiet des maschinellen Lernens vorantreiben, und informieren Sie sich über Tools, Software-Frameworks und Rechnerkonfigurationen, die Sie beim Einstieg unterstützen.

 
 
Tools für maschinelles Lernen
  • Caffe: Framework for convolutional neural network algorithms
  • cuda-convnet: High performance C++/CUDA implementation of convolutional neural networks
  • Theano: Python library to define, optimize, and evaluate mathematical expressions
  • Torch7: Scientific computing framework for machine learning algorithms 
  • cuBLAS: GPU-accelerated version of the complete standard BLAS library
  • MATLAB: Easy-to-use HPC language integrating computation, visualization, and programming
  • cxxnet: Neural network toolkit
 
 
 
Fachgespräche zum Thema maschinelles Lernen
 
Fachbeiträge zum Thema maschinelles Lernen
 
Unternehmen und Forschungseinrichtungen, die Grafikprozessoren für maschinelles Lernen einsetzen
Adobe Baidu Facebook Flickr
IBM Microsoft Netflix Nuance
Yandex      
 
Empfohlene Systemkonfigurationen
Zur Entwicklung eingesetzte Workstation Trainings-Cluster

2 Grafikprozessoren NVIDIA Tesla K40

2 Intel-Xeon-CPUs (mit mind. 8 Recheneinheiten)

64 GB Systemspeicher

8 Grafikprozessoren NVIDIA Tesla K40

2 Intel-Xeon-CPUs (mit mind. 8 Recheneinheiten)

256 GB Systemspeicher

 

Konfigurationsoptionen

Konfigurationsoptionen

 

Informationen zum Kauf beschleunigender Grafikprozessoren finden Sie auf der Webseite (Bezugsquellen für Tesla).

 
 
 
 
 
 
CUDA und GPU Computing

Was ist GPU Computing?
Wissenswertes über
GPU Computing

Grafikprozessor-Programmierung
Kepler Grafikprozessor-
Architektur

GPU-Cloud-Computing
Kontaktieren Sie Uns

Was ist CUDA?
CUDA Showcase
Was ist CUDA?
CUDA Centers of Excellence
CUDA-Kurskalender
CUDA Forschungszentren
CUDA Ausbildungszentren

Grafikprozessor-Anwendungen

Tesla Grafikprozessor-Anwendungen
Tesla Fallstudien
Tesla Grafikprozessor-Test
OpenACC-Direktiven
GeoInt Accelerator

Tesla Grafikprozessoren
für Server und Workstations

Warum Tesla
Tesla Server-Lösungen
Tesla Workstation-Lösungen
Embedded Entwicklungsplattform
Tesla Grafikprozessoren kaufen

Tesla News
und Informationen

Tesla Produktdokumentation
Tesla Softwaremerkmale
Tesla Software-
Entwicklungstools

NVIDIA Forschung
Tesla Mitteilungen

Aktuelle News Online

NVIDIA Blog NVIDIA Blog

Facebook Facebook

Twitter Twitter

Twitch Twitch

YouTube YouTube