DEEP-LEARNING-CONTAINER

IHR EINSTIEG IN DIE NVIDIA GPU CLOUD UND AMAZON EC2

NVIDIA GPU Cloud (NGC) ist eine grafikprozessorbeschleunigte Cloud-Plattform. Sie ermöglicht einen einfachen, schnellen Einstieg, wenn Sie die besten Deep-Learning-Frameworks nutzen möchten – entweder bei Ihnen vor Ort oder über die Amazon Elastic Compute Cloud (Amazon EC2). Die Lösungen anderer Cloud-Anbieter werden bald ebenfalls unterstützt.

Video ansehen >

DREI GRÜNDE FÜR DIE NVIDIA GPU CLOUD LÖSUNG

  1. INNOVATION FÜR JEDE BRANCHE

    Datenwissenschaftler und Forscher können sich die Leistung von NVIDIA-KI dank der weltweit schnellsten Grafikprozessorarchitektur und dank Deep-Learning-Frameworks in optimierten Containern, die in der NVIDIA GPU Cloud zur Verfügung stehen, in kürzester Zeit zunutze machen. NVIDIA-KI trägt zur Lösung einiger der komplexesten Probleme der Menschheit bei. Die frühzeitige Erkennung und Heilung ansteckender Krankheiten. Das Verhindern von tödlichen Verkehrsunfällen. Das Erkennen von Mängeln in kritischer Infrastruktur. Die Gewinnung tiefgreifender geschäftlicher Informationen aus großen Datenmengen. Und dies sind nur einige Beispiele. Jede Branche, von der Automobilindustrie über Medizin und Gesundheitswesen bis hin zur Finanztechnologie, wird derzeit von NVIDIA-KI transformiert.
  2. EFFEKTIVE UNTERSTÜTZUNG

    Mit der NVIDIA GPU Cloud stehen KI-Forschern auf Leistung ausgelegte Container mit Deep-Learning-Frameworks wie TensorFlow, PyTorch oder MXNet zur Verfügung. Diese vorab integrierten grafikprozessorbeschleunigten Frameworks, die alle erforderlichen Abhängigkeiten wie CUDA-Laufzeit, NVIDIA-Bibliotheken und ein Betriebssystem umfassen, werden von NVIDIA konfiguriert, getestet und zertifiziert. Sie lassen sich auf Instanzen von Amazon EC2 P3 mit NVIDIA Volta sowie auf der NVIDIA DGX-1™ und der NVIDIA DGX Station™ ausführen. Dadurch entfällt zeitaufwändige und komplizierte Softwareintegration, die bislang im Alleingang bewältigt werden musste. Gleichzeitig können die Anwender dank KI nun Probleme lösen, die bisher als unüberwindbar galten.
  3. ZUGRIFF VON JEDEM ORT

    Der Katalog optimierter Container für Deep-Learning-Frameworks auf NGC steht jedem Anwender völlig kostenlos zur Verfügung. Die Frameworks lassen sich auf Systemen teilnehmender Anbieter von Cloud-Diensten sowie auf NVIDIA DGX™-Systemen einsetzen. Die Containerisierung von Software ermöglicht das Portieren von Deep-Learning-Aufträgen über verschiedene Umgebungen hinweg. So fallen geringere Gesamtkosten für die Skalierung von KI-Workloads an. Entwickler und Datenwissenschaftler, die für ihre Experimente eine NVIDIA DGX Station nutzen, Unternehmen mit einer NVIDIA DGX-1 im Rechenzentrum und Organisationen, die NVIDIA-Grafikprozessoren in der Cloud einsetzen, haben nun Zugriff auf ein einheitliches, optimiertes Portfolio an Tools. Mit NGC verringert sich für Forscher der Zeitaufwand für die IT, wodurch ihnen mehr Zeit für ihre Studien bleibt, in denen sie dank Deep Learning wichtige Erkenntnisse und Ergebnisse gewinnen.
Download the NGC Deep Learning Frameworks Brief

ÜBERSICHT ZU DEN DEEP-LEARNING-FRAMEWORKS IN NGC HERUNTERLADEN

In dieser Übersicht erfahren Sie mehr über die Optimierung wichtiger Deep-Learning-Frameworks. So sind Sie bestens für den Einstieg in NGC und alle wichtigen Frameworks wie TensorFlow, PyTorch, MXnet, Theano, Caffe2 oder Microsoft Cognitive Toolkit (CNTK) gerüstet.

HÄUFIG GESTELLTE FRAGEN

  • Welche Vorteile bietet die Registrierung für NGC?

    Sie haben damit kostenlos Zugriff auf einen umfassenden Katalog vollständig integrierter und optimierter Container für Deep-Learning-Frameworks. 

  • Wer hat alles Zugriff auf die NGC-Container?

    Diese Container stehen jedem Nutzer zur Verfügung, der sich für ein NGC-Konto registriert. Nutzer mit einem Konto können die neuesten Versionen der grafikprozessoroptimierten Container auf unterstützte Plattformen herunterladen und dort verwenden.

  • Was befindet sich in den Containern?

    Jeder Container umfasst vorab integrierte Software, die für Deep Learning auf NVIDIA-Grafikprozessoren optimiert ist, sowie ein Linux-Betriebssystem, CUDA-Laufzeit, die erforderlichen Bibliotheken und das ausgewählte Framework (NVCaffe, TensorFlow usw.). Diese Komponenten sind optimal aufeinander abgestimmt. Zusätzliche Einrichtungsschritte sind nicht erforderlich.

  • Welche Frameworks stehen auf NGC zur Verfügung?

    Die NGC-Container-Registry verfügt über von NVIDIA-Grafikprozessoren beschleunigte Versionen der beliebtesten Frameworks: NVCaffe, Caffe2, Microsoft Cognitive Toolkit (CNTK), Digits, MXNet, PyTorch, TensorFlow, Theano, Torch, CUDA (Basiscontainer für Entwickler).

  • Wo lassen sich die Container ausführen?

    Die grafikprozessorbeschleunigten Container werden von NVIDIA konfiguriert, getestet und zertifiziert. Sie lassen sich auf Instanzen von Amazon EC2 P3 mit NVIDIA Volta und NVIDIA DGX-Systemen ausführen. Lösungen weiterer Anbieter von Cloud-Diensten werden demnächst ebenfalls unterstützt.

  • Kann ich Container aus NGC auf einem PC mit einer Titan Xp oder GeForce 1080 Ti ausführen?

    Ja, gemäß den Nutzungsbedingungen ist es zulässig, die NGC-Framework-Container auf PCs zu nutzen, auf denen Pascal- oder Volta-basierte Grafikprozessoren ausgeführt werden.

  • Wie kann ich diese Container auf Amazon EC2 ausführen?

    NVIDIA hat NVIDIA Volta Deep Learning AMI for NGC entwickelt, ein kostenloses Amazon Machine Image (AMI), das über den AWS Marketplace verfügbar ist. Dieses AMI ist eine optimierte Umgebung zur Ausführung der Deep-Learning-Frameworks, auf die Sie über die NGC-Container-Registry zugreifen können. Erstellen Sie einfach eine Instanz des AMI und ziehen das gewünschte Framework aus NGC in diese Instanz. Danach können Sie umgehend damit beginnen, Deep-Learning-Jobs auszuführen. Im AWS Marketplace gibt es weitere AMIs für Deep Learning, die jedoch nicht durch NVIDIA getestet oder optimiert wurden.

  • Wie häufig werden die Container und Frameworks aktualisiert?

    Jeden Monat. Die Container auf NGC profitieren von den laufenden NVIDIA-Investitionen in F&E sowie von unserer Zusammenarbeit mit Framework-Experten. So stellen wir sicher, dass jedes Deep-Learning-Framework ultraschnelles Training ermöglicht. NVIDIA-Techniker optimieren die Software kontinuierlich und stellen jeden Monat Updates für die Container bereit, sodass sich Ihre Investition in Deep Learning im Lauf der Zeit immer mehr bezahlt macht.

  • Welchen Support bietet NVIDIA für diese Container an?

    Alle NGC-Anwender können das NVIDIA DevTalk Developer Forum unter https://devtalk.nvidia.com/ nutzen. Zur großen Community dieses Forums gehören Deep-Learning- und Grafikprozessorexperten, die Kunden, Partner oder Mitarbeiter von NVIDIA sind.

  • Warum stellt NVIDIA diese Container bereit?

    NVIDIA beschleunigt die Demokratisierung von KI, indem wir Forschern und Entwicklern aus dem Deep-Learning-Bereich den Zugriff auf grafikprozessorbeschleunigte Deep-Learning-Frameworks erleichtern. Dadurch können diese Anwender optimierte Frameworks auf Volta-fähigen Cloud-Lösungen oder auf lokalen Systemen mit den neuesten NVIDIA-Grafikprozessoren einfach ausführen.

  • Die Container sind also kostenlos. Muss ich dafür für die Rechenzeit bezahlen?

    Die Container aus der NGC-Container-Registry werden kostenfrei zur Verfügung gestellt (gemäß den Nutzungsbedingungen). Jeder Cloud-Dienst-Anbieter hat jedoch sein eigenes Preismodell für beschleunigtes Computing.

MIT NGC ZUGRIFF AUF LEISTUNGSOPTIMIERTE DEEP-LEARNING-FRAMEWORKS SICHERN