(Source:wccftech)
NVIDIAは、Tesla V100Sとして知られるVoltaベースの Telsa グラフィックカードの新しい製品をリリースしました。新しいサーバー向けソリューションは、完全なVolta GPUと同じ仕様を搭載していますが、GPUとメモリの両方ではるかに高速のクロック周波数を提供し、単精度の計算ワークロードで16 TFLOPを超えるパフォーマンスを実現します。
NVIDIA Tesla V100S Volta GPUは、16以上のTFLOPと1TB / s以上のメモリ帯域幅をサーバーにもたらします
構成に関しては、Tesla V100Sには、12nm FinFETプロセスノードに基づいた同じGV100 GPUがあります。仕様には、5120 CUDAコア、640 Tensorコア、および32 GBのHBM2メモリが含まれます。おわかりのように、これらは既存のTesla V100と非常によく似た仕様ですが、GPUとメモリクロック速度にいくつかの変更が加えられています。Tesla V100SはPCIeフォームファクターのみで提供されますが、300W Tesla V100 SMX2(NVLINK)ソリューションよりも高いクロックを提供します。SMX2変型の1533 MHzと比較して、1601 MHzのGPUクロック速度を備えており、HBM2 DRAMに対してより高い1.1 Gbps周波数も提供します。メモリとグラフィッククロックの組み合わせにより、このTeslaバリアントは最速のHPCおよびサーバー向けグラフィックソリューションになります。上記のクロック速度で、Tesla V100Sは理論的なFP32計算パフォーマンス16.4 TFLOP、FP64計算パフォーマンス8.2 TFLOP、およびDNN / DL計算130 TFLOPを提供します。このカードは、Tesla V100の1秒あたり900 GBの帯域幅に対して、1テラバイト以上のメモリ帯域幅(1134 GB / s)も出力します。Tesla V100Sは250W設計で提供されています。
NVIDIA Volta Tesla V100S Specs
NVIDIA Tesla Graphics Card | Tesla K40(PCI-Express) | Tesla M40(PCI-Express) | Tesla P100(PCI-Express) | Tesla P100 (SXM2) | Tesla V100 (PCI-Express) | Tesla V100 (SXM2) | Tesla V100S (PCIe) |
---|---|---|---|---|---|---|---|
GPU | GK110 (Kepler) | GM200 (Maxwell) | GP100 (Pascal) | GP100 (Pascal) | GV100 (Volta) | GV100 (Volta) | GV100 (Volta) |
Process Node | 28nm | 28nm | 16nm | 16nm | 12nm | 12nm | 12nm |
Transistors | 7.1 Billion | 8 Billion | 15.3 Billion | 15.3 Billion | 21.1 Billion | 21.1 Billion | 21.1 Billion |
GPU Die Size | 551 mm2 | 601 mm2 | 610 mm2 | 610 mm2 | 815mm2 | 815mm2 | 815mm2 |
SMs | 15 | 24 | 56 | 56 | 80 | 80 | 80 |
TPCs | 15 | 24 | 28 | 28 | 40 | 40 | 40 |
CUDA Cores Per SM | 192 | 128 | 64 | 64 | 64 | 64 | 64 |
CUDA Cores (Total) | 2880 | 3072 | 3584 | 3584 | 5120 | 5120 | 5120 |
Texture Units | 240 | 192 | 224 | 224 | 320 | 320 | 320 |
FP64 CUDA Cores / SM | 64 | 4 | 32 | 32 | 32 | 32 | 32 |
FP64 CUDA Cores / GPU | 960 | 96 | 1792 | 1792 | 2560 | 2560 | 2560 |
Base Clock | 745 MHz | 948 MHz | 1190 MHz | 1328 MHz | 1230 MHz | 1297 MHz | TBD |
Boost Clock | 875 MHz | 1114 MHz | 1329MHz | 1480 MHz | 1380 MHz | 1530 MHz | 1601 MHz |
FP16 Compute | N/A | N/A | 18.7 TFLOPs | 21.2 TFLOPs | 28.0 TFLOPs | 30.4 TFLOPs | 32.8 TFLOPs |
FP32 Compute | 5.04 TFLOPs | 6.8 TFLOPs | 10.0 TFLOPs | 10.6 TFLOPs | 14.0 TFLOPs | 15.7 TFLOPs | 16.4 TFLOPs |
FP64 Compute | 1.68 TFLOPs | 0.2 TFLOPs | 4.7 TFLOPs | 5.30 TFLOPs | 7.0 TFLOPs | 7.80 TFLOPs | 8.2 TFLOPs |
Memory Interface | 384-bit GDDR5 | 384-bit GDDR5 | 4096-bit HBM2 | 4096-bit HBM2 | 4096-bit HBM2 | 4096-bit HBM2 | 4096-bit HBM2 |
Memory Size | 12 GB GDDR5 @ 288 GB/s | 24 GB GDDR5 @ 288 GB/s | 16 GB HBM2 @ 732 GB/s 12 GB HBM2 @ 549 GB/s | 16 GB HBM2 @ 732 GB/s | 16 GB HBM2 @ 900 GB/s | 16 GB HBM2 @ 900 GB/s | 16 GB HBM2 @ 1134 GB/s |
L2 Cache Size | 1536 KB | 3072 KB | 4096 KB | 4096 KB | 6144 KB | 6144 KB | 6144 KB |
TDP | 235W | 250W | 250W | 300W | 250W | 300W | 250W |
Tesla V100 PCIeと比較すると、Tesla V100Sから得られる計算パフォーマンスは約17%向上しています。サーバーの関係者はアップグレードの理由として検討するでしょう。ここで考慮すべき唯一のことは、PCIe Gen 4.0との互換性を備えていないことです。多くの主要なサーバーは2020年のPCIeの上に4.0プラットフォームを用意されると考えられています。ですからNVIDIAは独自のPCIe Gen 4.0の実装の為に作業する必要があります。近い将来のAmpere GPUの登場によりこれが実現すると考えています。現在、Tesla V100Sの価格設定や入手可能性については言及されていませんが、6000ドルを超えるものと予想されます。