2
最先端のデータセンター向けGPU NVIDIA ® Tesla ® V100 AIHPCそしてグラフィクス処理を高速化 する史上最高のデータセンター向け GPU です。 最新のNVIDIA Volta TM アーキテクチャにより、 Tesla V1001基で 最大100CPU分のパフォーマンスを発揮し、かつては不可能と考え られていた課題に取り組むデータサイエンティスト、研究者、エン ジニアを強力に支援します。 TESLA V100 | DATA SHEET | JUL19 NVIDIA TESLA V100 GPU アクセラレーター HPCパフォーマンスが1年で1.5倍に C P U S y s t e m : 2X Xeon E5-2690v4 @ 2.6GHz on pre-production hardware c u F F T S e i s m i c ( R T M ) P h y s i c s ( Q U D A ) S T R E A M 0 1 . 0 X 2 . 0 X Tesla P100との性能比 | G P U S y s t e m : N V I D I A ® T e s l a ® P 1 0 0 o r V 1 0 0 | V 1 0 0 m e a s u r e d 8 X V 1 0 0 8 X P 1 0 0 8 X K 8 0 4 4時間 1 8時間 7 . 4時間 ディープラーニングの学習を1日で 学習完了までの所要時間 4 0 5 0 2 0 3 0 1 0 0 S e r v e r C on g : D u a l X e o n E 5 - 2 6 9 9 v 4 , 2 . 6 G H z | 8 x T e s l a K 8 0 , T e s l a P 1 0 0 o r T e s l a V 1 0 0 | V 1 0 0 p e r f o r m a n c e m e a s u r e d o n p r e - p r o d u c t i o n h a r d w a r e . | R e s N e t - 5 0 T r a i n i n g o n M i c r o s o f t C o g n i t i v e T o o l k i t f o r 9 0 E p o c hs w i t h 1 . 2 8M I m a g e N e t d a t a s e t W o r k l o a d : R e s N e t - 5 0 | C P U : 2 X X e o n E 5 - 2 6 9 0 v 4 @ 2 . 6 G H z | G P U : a d d 1 X N V I D I A ® T e s l a ® P 1 0 0 o r V 1 0 0 a t 1 5 0 T e s l a V 1 0 0 T e s l a P 1 0 0 1 X C P U 0 2 0 X 4 0 X 1 0 X 3 0 X CPUサーバーとの性能比 ディープラーニングの推論処理が CPUサーバーの47倍高速 仕様 Tesla V100 PCle Tesla V100 SXM2 GPUアーキテクチャ NVIDIA Volta NVIDIA Tensorコア 640 NVIDIA CUDA ® コア 5,120 倍精度演算性能 7 TFLOPS 7.8 TFLOPS 単精度演算性能 14 TFLOPS 15.7 TFLOPS 行列演算性能 112 TFLOPS 125 TFLOPS GPUメモリ 32/16 GB HBM2 メモリ帯域幅 900 GB/sec ECC 対応 GPU間接続帯域* 32 GB/sec 300 GB/sec システム接続 PCIe Gen3 NVIDIA NVLink フォームファクタ PCIe Full Height/Length SXM2 最大消費電力 250 W 300 W 冷却方式 パッシブ(冷却ファンなし) 対応計算API CUDA, DirectCompute, OpenCL , OpenACC

NVIDIA TESLA V100 GPU アクセラレーターimages.nvidia.com/content/technologies/deep-learning/pdf/NVIDIA-Tesla-V100-JPN.pdf · 最先端のデータセンター向けgpu nvidia

  • Upload
    others

  • View
    7

  • Download
    0

Embed Size (px)

Citation preview

Page 1: NVIDIA TESLA V100 GPU アクセラレーターimages.nvidia.com/content/technologies/deep-learning/pdf/NVIDIA-Tesla-V100-JPN.pdf · 最先端のデータセンター向けgpu nvidia

最先端のデータセンター向けGPUNVIDIA® Tesla® V100 はAI、HPCそしてグラフィクス処理を高速化する史上最高のデータセンター向け GPU です。最新のNVIDIA VoltaTM アーキテクチャにより、Tesla V100は1基で最大100CPU分のパフォーマンスを発揮し、かつては不可能と考えられていた課題に取り組むデータサイエンティスト、研究者、エンジニアを強力に支援します。

TESLA V100 | DATA ShEET | JUL19

NVIDIA TESLA V100 GPU アクセラレーター

HPCパフォーマンスが1年で1.5倍に

CPU System: 2X Xeon E5-2690v4 @ 2.6GHzon pre-production hardware

cuFFTSeismic(RTM)

Physics(QUDA)

STREAM0

1.0X

2.0X

Tesl

a P1

00との性能比

| GPU System: NVIDIA® Tesla® P100 or V100 | V100 measured

8X V100

8X P100

8X K8044時間

18時間

7.4時間

ディープラーニングの学習を1日で

学習完了までの所要時間40 5020 30100

Server Config: Dual Xeon E5-2699 v4, 2.6GHz | 8x Tesla K80, Tesla P100 or Tesla V100 | V100 performance measured on pre-production hardware. | ResNet-50 Training on Microsoft Cognitive Toolkit for 90 Epochs with 1.28M ImageNet dataset

Workload: ResNet-50 | CPU: 2X Xeon E5-2690v4 @ 2.6GHz | GPU: add 1X NVIDIA®

Tesla® P100 or V100 at 150

Tesla V100

Tesla P100

1X CPU

0 20X 40X10X 30X

CPUサーバーとの性能比

ディープラーニングの推論処理がCPUサーバーの47倍高速

仕様

Tesla V100PCle

Tesla V100SXM2

GPUアーキテクチャ NVIDIA VoltaNVIDIA Tensorコア 640NVIDIA CUDA® コア 5,120倍精度演算性能 7 TFLOPS 7.8 TFLOPS単精度演算性能 14 TFLOPS 15.7 TFLOPS行列演算性能 112 TFLOPS 125 TFLOPSGPUメモリ 32/16 GB HBM2 メモリ帯域幅 900 GB/secECC 対応GPU間接続帯域* 32 GB/sec 300 GB/secシステム接続 PCIe Gen3 NVIDIA NVLinkフォームファクタ PCIe Full

Height/Length SXM2

最大消費電力 250 W 300 W冷却方式 パッシブ(冷却ファンなし)対応計算API CUDA, DirectCompute,

OpenCL™, OpenACC

Page 2: NVIDIA TESLA V100 GPU アクセラレーターimages.nvidia.com/content/technologies/deep-learning/pdf/NVIDIA-Tesla-V100-JPN.pdf · 最先端のデータセンター向けgpu nvidia

© 2017 NVIDIA Corporation. All rights reserved. NVIDIA, the NVIDIA logo, Tesla, NVIDIA GPU Boost, CUDA, and NVIDIA Volta are trademarks and/or registered trademarks of NVIDIA Corporation in the U.S. and other countries. OpenCL is a trademark of Apple Inc. used under license to the Khronos Group Inc. All other trademarks and copyrights are the property of their respective owners. JUL17

Tesla V100の詳細はこちら: www.nvidia.co.jp/v100

TESLA V100の新機軸

Tesla V100はディープラーニング、HPC、グラフィックスに向けたTeslaデータセンター コンピューティング プラットフォームのフラッグシップ製品です。Teslaプラットフォームは450以上のHPCアプリケーションと、全ての主要なディープラーニング フレームワークを高速化します。デスクトップからサーバー、そしてクラウドサービスまであらゆるところで利用でき、劇的なパフォーマンス向上とコスト削減の機会を提供します。

VOLTAアーキテクチャCUDAコアとTensorコアの組み合わせにより、Tesla V100搭載サーバーの性能はHPCやディープラーニング用途で100台のコモディティCPUサーバーに匹敵します。

TENSORコア新たな640個のTensorコアにより、Tesla V100は125 Tensor TeraFLOPSのディープラーニング性能を発揮。これは、NVIDIA Pascal™世代GPUとの比較で学習が12倍、推論は6倍のパフォーマンスです。

新世代のNVLINKTesla V100のNVIDIA NVLinkは前世代比で2倍のスループットを提供します。8基までのTesla V100を最大300GB/sで接続することで、単一サーバー上での最高性能を発揮できます。

HBM2900GB/sに向上した帯域幅と 95%向上したDRAM効率により、Tesla V100は STREAM 計測でPascal GPU比1.5倍のメモリバンド幅を持っています。Tesla V100はこのHBM2メモリを32GB搭載しています。

最大効率モード新たな「最大効率モード」によりデータセンターの電源容量はそのままに、ラックあたり計算性能を最大40%向上させられます。このモードでは最大性能の80%を、最大消費電力の半分で実現可能です。

プログラミング効率Tesla V100 はプログラムをシンプルにするために設計されました。新しい独立したスレッドスケジューリングにより同期の粒度を細かく設定可能で、 小さなジョブを複数同時に 処理する効率を高められます。

主要なディープラーニングフレームワーク 450以上のGPU対応アプリケーション

HPC HPCAMBERAMBER ANSYS FluentANSYS Fluent

HPC GAUSSIANGAUSSIAN HPC GROMACSGROMACS

HPC HPCLS-DYNALS-DYNA NAMDNAMD

HPC HPCOpenFOAMOpenFOAM Simulia AbaqusSimulia AbaqusHPC HPC Simulia AbaqusSimulia Abaqus

VASPVASPHPC HPC WRFWRF

C