GPU / GPU - BASED SYSTEM

GPU・GPU搭載システム

TOP >製品一覧 >GPU・GPU搭載システム

GPUを装備した

高性能なコンピュータが必要ですか?

CUDA環境を中心にGPGPU(General-purpose computing on graphics processing units; GPUによる汎用計算)が長らく注目されています。
機械学習/AI/Deep Learningの活用に加え、量子シミュレーションや大規模言語モデル(Large Language Models:LLM)を含む各種生成AIにおいても、GPUは必須となっています。
VTでは、演算能力だけでなく、高解像度のグラフィックスが必要など、お客様のさまざまなミッションに適したGPU搭載サーバ/ワークステーション・ラックマウントサーバを提供しています。
エントリーモデルには1枚のGPUカードが搭載されていますが、本格的な取り組みには複数のコンピューティングボードやGPUボードを搭載したシステムや、NVLink/NVLink Bridgeを活用したシステムが必要です。これらのシステムでは、カードの消費電力や発生する熱に配慮した設計が重要です。また、複数のユーザが利用する場合は、日々進化する各種フレームワークの導入や更新にも配慮する必要があります。コンテナ環境の活用も有効です。VDI用途でのvGPUの活用なども、多くのノウハウが必要です。
お客様のニーズに合わせて、最適なシステム構築をサポートいたします。

GPU LINEUP
GPUラインアップ

GPGPUでのデファクトスタンダードは、NVIDIA社製のGPUカードです。
現在、グラフィックスからAI処理まで幅広い演算能力を備えた汎用のGPUとして、NVIDIA Ada Lovelaceアーキテクチャが存在します。また、GPUメモリも急速に大容量化しています。
このAda Lovelaceアーキテクチャには、混合精度演算を行うTensorコア(第4世代)が搭載されており、ソフトウェアと組み合わせることで、AI学習における低精度の計算を高速に実行できるTransformer Engine機能が提供されています(高精度な計算が必要な場合には、この機能を無効にすることも可能です)。
さらに、NVIDIA Hopper アーキテクチャは、最高水準のAI学習向け製品として位置付けられています。このアーキテクチャは倍精度浮動小数点の演算もサポートしています。

生成AI/倍精度浮動小数点演算を必要とする数値計算やシミュレーション用途(グラフィック出力なし)

   
 ■ データ センター GPU
    PCI Express   メモリ量   アーキテクチャ   NVLink   MIG   倍精度   単精度 
 H100 NVL   5.0 x16   94GB   Hopper   ◯   ◯   ◯   ◯ 
 A10 NC   4.0 x16   24GB   Ampere   ─   ─   ─   ◯ 
 L40S   4.0 x16   48GB   Ada Lovelace   ─   ─   ─   ◯ 
 L40   4.0 x16   48GB   Ada Lovelace   ─   ─   ─   ◯ 
 A2   4.0 x8   16GB   Ampere   ─   ─   ─   ◯ 
 A16   4.0 x16   4x 16GB   Ampere   ─   ─   ─   ◯ 
   
 ■ ワークステーション GPU / データ サイエンスと HPC向け /Active​ FAN
    PCI Express   メモリ量   アーキテクチャ   NVLink   MIG   倍精度   単精度 
 A800 40GB   4.0 x16   40GB   Ampere   ◯   ◯   ◯   ◯ 
   ※ディスクサイドで使える倍精度GPU

AI推論/機械学習/単精度浮動小数点演算での数値計算やシミュレーション用途(グラフィック出力あり)

   
 ■ Ada 世代 NVIDIA Ada Lovelace
    バス   メモリ量   CUDAコア数   Tensorコア数   RTコア数   倍精度   単精度 
 RTX 6000 Ada   4.0 x16   48GB   18,176   568   142   ─   ◯ 
 RTX 5000 Ada   4.0 x16   32GB   12,800   400   100   ─   ◯ 
 RTX 4500 Ada   4.0 x16   24GB   7,680   240   60   ─   ◯ 
 RTX 4000 Ada ※1   4.0 x16   20GB   6,144   192   48   ─   ◯ 
 RTX 4000 SFF Ada ※2   4.0 x16   20GB   6,144   192   48   ─   ◯ 
 RTX 2000 Ada   4.0 x8   16GB   2,816   88   22   ─   ◯ 
   ※1 メモリー帯域幅 360GB/s,消費電力 130W
   ※2 メモリー帯域幅 280GB/s,消費電力 70W
   
 ■ Aシリーズ NVIDIA Ampere
    バス   メモリ量   CUDAコア数   Tensorコア数   RTコア数   倍精度   単精度 
 RTX A5000   4.0 x16   24GB   8,192   256   64   ─   ◯ 
 RTX A4500   4.0 x16   20GB   7,168   224   56   ─   ◯ 
 RTX A4000   4.0 x16   16GB   6,144   192   48   ─   ◯ 
 RTX A2000   4.0 x16   6GB/12GB   3,328   104   26   ─   ◯ 

GPGPUでは、GPUメモリへの高速なアクセスが処理パフォーマンスに大きく寄与します。 その為、PCIeバス(PCIe Ver3 x16)の約32GB/sを上回る300 GB/sのスピードでGPU間/GPU-CPU間を接続するNVLinkが開発されました。PCIeバスもVer4 の登場で倍の転送レートとなりましたが、NVLinlkも第3世代となり600GB/sへと進化しています。
またNVLinkは、アプリケーションのサポートが必要ですが、2枚のGPUカードをPCIeバスとは別に専用アダプタでNVLink接続するNVLinkSLIとしても応用されています。

GPU SYSTEM
GPU搭載システム

VT64シリーズ

処理能力・ストレージ量・高速ネットワークインタフェースなど、大きなカスタマイズ範囲を持つ、弊社オリジナルのオーダメイド製品です。NVLink対応製品や、3~最大20GPUに対応します。 Windows10やWindows Server、各種Linux等のOSをお選びいただけます。 コストパフォーマンスや特別な性能要求にも対応いたします。

メーカー製品

様々な特徴を持ち、特に高度な保守サービス、運用管理を容易にするシステム管理機能などでメリットのある大手メーカー製品を、適材適所でご提案いたします。 この他のメーカー製品についても、お問い合わせください。

  • HPE Apollo 6500 Gen10システム

    4U1ノードのNVLinkに対応したハイエンドGPUサーバ。 「NVIDIA Tesla V100 GPU」を最大8基搭載。 更にPCIe3.0 x16スロットによるGPUカード搭載可能。

  • Dell EMC DSS 8440機械学習サーバ

    4U1ノードのNVIDIA Tesla V100を最大10基搭載するサーバ。 最大10本のNVMe SSD、SAS/SATA SSD、InfiniBandのサポート、8本のPCIex16スロットなど、システム全体で「機械学習専用」を目指した高性能サーバ。

  • その他のサーバ

    この他のメーカー製品についても、お問い合わせください。