DEEP-LEARNING-CONTAINER

UMFASSEND SKALIERBARES DEEP LEARNING

NVIDIA GPU Cloud (NGC) bietet die Leistung und Flexibilität, mit der Sie selbst die schwierigsten Deep-Learning-Projekte erfolgreich meistern. So profitiert jede Branche von der Leistung der KI-Lösungen von NVIDIA. In Wissenschaft und Forschung lassen sich Modelle für neuronale Netze in kürzester Zeit aufbauen, trainieren und bereitstellen – eine Entwicklung, die angesichts der steigenden Anforderungen zur rechten Zeit kommt. Dazu gehört auch ein Katalog vollständig integrierter und optimierter Container für Deep-Learning-Software, mit der die NVIDIA-Grafikprozessoren in der Cloud und lokal in vollem Umfang genutzt werden.

Truly Scalable Deep Learning

DREI GRÜNDE FÜR DIE NVIDIA GPU CLOUD LÖSUNG

  1. INNOVATION FÜR JEDE BRANCHE

    Datenwissenschaftler und Forscher können sich die Leistung von NVIDIA-KI dank der weltweit schnellsten Grafikprozessorarchitektur und dank Deep-Learning-Software in optimierten Containern in kürzester Zeit zunutze machen. Dieses leistungsstarke Tool trägt zur Lösung einiger der komplexesten Probleme der Menschheit bei. Ansteckende Krankheiten können frühzeitig erkannt und geheilt werden. Mängel in kritischer Infrastruktur werden aufgedeckt. Aus großen Datenmengen lassen sich geschäftliche Informationen mit hoher Aussagekraft gewinnen. Sogar tödliche Verkehrsunfälle können verhindert werden. Jede Branche, von der Automobilindustrie über Medizin und Gesundheitswesen bis hin zur Finanztechnologie, wird derzeit von NVIDIA-KI transformiert.
  2. EFFEKTIVE UNTERSTÜTZUNG

    Mit NGC stehen KI-Forschern auf Leistung ausgelegte KI-Container mit Deep-Learning-Software wie TensorFlow, PyTorch, MXNet oder TensorRT zur Verfügung. Die Container werden von NVIDIA optimiert, getestet und zertifiziert für die Verwendung auf NVIDIA DGX-Systemen, ausgewählten NVIDIA TITAN- sowie NVIDIA Quadro-Grafikprozessoren und NVIDIA-Grafikprozessoren in der Cloud (Alibaba, Amazon, Google, Microsoft und Oracle).
  3. ZUGRIFF VON JEDEM ORT

    Der Katalog der von NVIDIA optimierten Container für Deep-Learning-Software steht allen unentgeltlich auf allen Plattformen zur Verfügung – vom Desktop über das Rechenzentrum bis hin zur Cloud. Die Frameworks lassen sich auf Systemen teilnehmender Anbieter von Cloud-Diensten, auf NVIDIA DGX™-Systemen und Systemen mit ausgewählten NVIDIA-Desktop-Grafikprozessoren einsetzen. Die Containerisierung von Software ermöglicht das Portieren von Deep-Learning-Aufträgen über verschiedene Umgebungen hinweg. So fallen geringere Gesamtkosten für die Skalierung von KI-Workloads an. Entwickler und Datenwissenschaftler, die für ihre Experimente NVIDIA DGX Station oder einen PC mit einem TITAN-Grafikprozessor mit der NVIDIA Volta- oder NVIDIA Pascal-Architektur nutzen, Unternehmen mit einer NVIDIA DGX-1 im Rechenzentrum und Organisationen, die NVIDIA-Grafikprozessoren in der Cloud einsetzen, haben nun Zugriff auf ein einheitliches, optimiertes Portfolio an Tools. Dadurch verringert sich für Nutzer der Zeitaufwand für IT-Probleme, wodurch ihnen mehr Zeit für ihre Experimente bleibt, in denen sie dank Deep Learning zu wichtigen Erkenntnissen und Ergebnissen gelangen.
Download the NGC Deep Learning Frameworks Brief

ÜBERSICHT ZUR DEEP-LEARNING-SOFTWARE IN NGC HERUNTERLADEN

In dieser Übersicht erfahren Sie mehr über die Optimierungen der wichtigsten Deep-Learning-Frameworks wie TensorFlow, PyTorch, MXnet, Theano, Caffe2, Microsoft Cognitive Toolkit (CNTK) und viele mehr.

IHR EINSTIEG IN DIE NVIDIA GPU CLOUD UND AMAZON EC2

Mit NVIDIA GPU Cloud lassen sich grafikprozessoroptimierte Deep-Learning-Frameworks vor Ort oder in der Cloud nutzen. Erfahren Sie, wie auch Sie schon bald NGC mit Amazon Elastic Compute Cloud (Amazon EC2) nutzen können.

Video ansehen >

HÄUFIG GESTELLTE FRAGEN

  • Welche Vorteile bietet die Registrierung für NGC?

    Sie haben damit kostenlos Zugriff auf einen umfassenden Katalog vollständig integrierter und optimierter Container für Deep-Learning-Frameworks. 

  • Wer hat alles Zugriff auf die NGC-Container?

    Jeder, der sich für ein NGC-Konto registriert. Nutzer mit einem Konto können die neuesten Versionen der grafikprozessoroptimierten Container auf unterstützte Plattformen herunterladen und dort verwenden.

  • Was befindet sich in den Containern?

    Jeder Container verfügt über die NVIDIA GPU Cloud-Software, eine vorab integrierte Grafikprozessor-beschleunigte Software, die für Deep Learning auf NVIDIA-Grafikprozessoren optimiert ist. Sie umfasst ein Linux-Betriebssystem, die CUDA-Runtime, die erforderlichen Bibliotheken sowie das ausgewählte Framework bzw. die ausgewählte Anwendung (z. B. TensorFlow, NVCaffe oder NVIDIA DIGITS). Diese Komponenten sind optimal aufeinander abgestimmt. Zusätzliche Einrichtungsschritte sind daher nicht erforderlich.

  • Welche Frameworks stehen auf NGC zur Verfügung?

    Die NGC-Container-Registry verfügt über von NVIDIA-Grafikprozessoren beschleunigte Versionen der beliebtesten Frameworks: NVCaffe, Caffe2, Microsoft Cognitive Toolkit (CNTK), NVIDIA DIGITS, MXNet, PyTorch, TensorFlow, Theano, Torch, CUDA (Basiscontainer für Entwickler).

  • Wo lassen sich die Container ausführen?

    Die Grafikprozessor-beschleunigten Container werden von NVIDIA optimiert, getestet und zertifiziert für die Verwendung auf NVIDIA DGX™-Systemen, NVIDIA TITAN (auf Basis von NVIDIA Volta und NVIDIA Pascal™), NVIDIA Quadro GV100, GP100 und P6000 sowie NVIDIA-Grafikprozessoren in der Cloud (Alibaba, Amazon, Google, Microsoft und Oracle).

  • Kann ich Deep-Learning-Container in NGC auf einem PC mit einer GeForce® GTX 1080 Ti ausführen?

    Ja, gemäß den Nutzungsbedingungen ist es zulässig, die NGC-Container für Deep Learning auf Desktop-PCs zu nutzen, auf denen Grafikprozessoren mit Pascal- oder Volta-Architektur ausgeführt werden.

  • Wie kann ich die Deep-Learning-Container in NGC bei einem Anbieter von Cloud-Diensten (z. B. Amazon oder Google Cloud) ausführen?

    Die Deep-Learning-Container in NGC sind für die Ausführung auf NVIDIA Volta- oder Pascal™-basierten Grafikprozessoren vorgesehen. Die von NGC unterstützten Anbieter von Cloud-Diensten (Cloud Service Providers, kurz CSP) bieten Instanztypen an, die die entsprechenden NVIDIA-Grafikprozessoren für die Ausführung der NGC-Container bereitstellen. Zum Ausführen der Container müssen Sie einen dieser Instanztypen auswählen, eine Instanz der entsprechenden Image-Datei darauf erstellen und dann aus diesem Image heraus auf NGC zugreifen. Die genauen Schritte hierfür variieren je nach CSP. In der NVIDIA GPU Cloud-Dokumentation finden Sie für jeden CSP ausführliche Anweisungen.

  • Wie häufig werden die Container und Frameworks aktualisiert?

    Jeden Monat. Die Deep-Learning-Container auf NGC profitieren von den laufenden NVIDIA-Investitionen in F&E sowie von unserer Zusammenarbeit mit Framework-Experten. So stellen wir sicher, dass jedes Deep-Learning-Framework ultraschnelles Training ermöglicht. NVIDIA-Techniker optimieren die Software kontinuierlich und stellen jeden Monat Updates für die Container bereit, sodass sich Ihre Investition in Deep Learning im Lauf der Zeit immer mehr bezahlt macht.

  • Welchen Support bietet NVIDIA für diese Container an?

    Die Nutzer haben Zugriff auf das NVIDIA DevTalk Developer Forumhttps://devtalk.nvidia.com. Zur großen Community dieses Forums gehören Deep-Learning- und Grafikprozessorexperten, die Kunden, Partner oder Mitarbeiter von NVIDIA sind.

  • Warum stellt NVIDIA diese Container bereit?

    NVIDIA beschleunigt die Demokratisierung von KI, indem wir Forschern und Entwicklern aus dem Deep-Learning-Bereich den Zugriff auf grafikprozessorbeschleunigte Deep-Learning-Frameworks erleichtern. Dadurch können Anwender diese optimierten Frameworks auf den neuesten NVIDIA-Grafikprozessoren in der Cloud oder auf lokalen Systemen einfach ausführen.

  • Die Deep-Learning-Container sind also kostenlos. Muss ich dafür für die Rechenzeit bezahlen?

    Die Container aus der NGC-Container-Registry werden kostenfrei zur Verfügung gestellt (gemäß den Nutzungsbedingungen). Jeder Cloud-Dienst-Anbieter hat jedoch sein eigenes Preismodell für beschleunigtes Computing.

MIT NGC ZUGRIFF AUF LEISTUNGSOPTIMIERTE DEEP-LEARNING-FRAMEWORKS SICHERN