GPU / GPU - BASED SYSTEM

GPU・GPU搭載システム

TOP >製品一覧 >GPU・GPU搭載システム

GPUを装備した

高性能なコンピュータが必要ですか?

CUDA環境を中心にGPGPU(General-purpose computing on graphics processing units; GPUによる汎用計算)が長らく注目されています。
機械学習/AI/Deep Learningの活用に加え、量子シミュレーションや大規模言語モデル(Large Language Models:LLM)を含む各種生成AIにおいても、GPUは必須となっています。
VTでは、演算能力だけでなく、高解像度のグラフィックスが必要など、お客様のさまざまなミッションに適したGPU搭載サーバ/ワークステーション・ラックマウントサーバを提供しています。
エントリーモデルには1枚のGPUカードが搭載されていますが、本格的な取り組みには複数のコンピューティングボードやGPUボードを搭載したシステムや、NVLink/NVLink Bridgeを活用したシステムが必要です。これらのシステムでは、カードの消費電力や発生する熱に配慮した設計が重要です。また、複数のユーザが利用する場合は、日々進化する各種フレームワークの導入や更新にも配慮する必要があります。コンテナ環境の活用も有効です。VDI用途でのvGPUの活用なども、多くのノウハウが必要です。
お客様のニーズに合わせて、最適なシステム構築をサポートいたします。

GPU LINEUP
GPUラインアップ

GPGPUでのデファクトスタンダードは、NVIDIA社製のGPUカードです。
現在、グラフィックスからAI処理まで幅広い演算能力を備えた汎用のGPUとして、NVIDIA Ada Lovelaceアーキテクチャが存在します。また、GPUメモリも急速に大容量化しています。
このAda Lovelaceアーキテクチャには、混合精度演算を行うTensorコア(第4世代)が搭載されており、ソフトウェアと組み合わせることで、AI学習における低精度の計算を高速に実行できるTransformer Engine機能が提供されています(高精度な計算が必要な場合には、この機能を無効にすることも可能です)。
さらに、NVIDIA Hopper アーキテクチャは、最高水準のAI学習向け製品として位置付けられています。このアーキテクチャは倍精度浮動小数点の演算もサポートしています。

コンピューティングボート

倍精度浮動小数点演算を必要とする数値計算やシミュレーション用途

   
 バス  メモリ量  世代(アーキテクチャ)
 ■ データ センター GPU
 [倍精度]
 NVIDIA H100 NVL  PCI Express 5.0 x16  94GB  NVIDIA Hopper
 NVIDIA A10 NC  PCI Express 4.0 x16  24GB  NVIDIA Ampere
 [単精度]
 NVIDIA L40S  PCI Express 4.0 x16  48GB  NVIDIA Ada Lovelace
 NVIDIA L40  PCI Express 4.0 x16  48GB  NVIDIA Ada Lovelace
 NVIDIA A2  PCI Express 4.0 x8  16GB  NVIDIA Ampere
 NVIDIA A16  PCI Express 4.0 x16  4x 16GB  NVIDIA Ampere

GPUボード

AI推論/機械学習/単精度浮動小数点演算での数値計算やシミュレーション用途用途

   
 バス  メモリ量
 ■ Ada 世代 NVIDIA Ada Lovelace
 NVIDIA RTX 6000 Ada  PCI Express 4.0 x16  48GB
 NVIDIA RTX 5000 Ada  PCI Express 4.0 x16  32GB
 NVIDIA RTX 4500 Ada  PCI Express 4.0 x16  24GB
 NVIDIA RTX 4000 Ada  PCI Express 4.0 x16  20GB
 NVIDIA RTX 4000 SFF Ada  PCI Express 4.0 x16  20GB
 NVIDIA RTX 2000 Ada  PCI Express 4.0 x8  16GB
 ■ Aシリーズ NVIDIA Ampere
 NVIDIA A800 40GB Active  PCI Express 4.0 x16  40GB
 NVIDIA RTX A5000  PCI Express 4.0 x16  24GB
 NVIDIA RTX A4500  PCI Express 4.0 x16  20GB
 NVIDIA RTX A4000  PCI Express 4.0 x16  16GB
 NVIDIA RTX A2000  PCI Express 4.0 x16  12GB
 NVIDIA RTX A2000  PCI Express 4.0 x16  6GB

GPGPUでは、GPUメモリへの高速なアクセスが処理パフォーマンスに大きく寄与します。 その為、PCIeバス(PCIe Ver3 x16)の約32GB/sを上回る300 GB/sのスピードでGPU間/GPU-CPU間を接続するNVLinkが開発されました。PCIeバスもVer4 の登場で倍の転送レートとなりましたが、NVLinlkも第3世代となり600GB/sへと進化しています。
またNVLinkは、アプリケーションのサポートが必要ですが、2枚のGPUカードをPCIeバスとは別に専用アダプタでNVLink接続するNVLinkSLIとしても応用されています。

GPU SYSTEM
GPU搭載システム

VT64シリーズ

処理能力・ストレージ量・高速ネットワークインタフェースなど、大きなカスタマイズ範囲を持つ、弊社オリジナルのオーダメイド製品です。NVLink対応製品や、3~最大20GPUに対応します。 Windows10やWindows Server、各種Linux等のOSをお選びいただけます。 コストパフォーマンスや特別な性能要求にも対応いたします。

メーカー製品

様々な特徴を持ち、特に高度な保守サービス、運用管理を容易にするシステム管理機能などでメリットのある大手メーカー製品を、適材適所でご提案いたします。 この他のメーカー製品についても、お問い合わせください。

  • HPE Apollo 6500 Gen10システム

    4U1ノードのNVLinkに対応したハイエンドGPUサーバ。 「NVIDIA Tesla V100 GPU」を最大8基搭載。 更にPCIe3.0 x16スロットによるGPUカード搭載可能。

  • Dell EMC DSS 8440機械学習サーバ

    4U1ノードのNVIDIA Tesla V100を最大10基搭載するサーバ。 最大10本のNVMe SSD、SAS/SATA SSD、InfiniBandのサポート、8本のPCIex16スロットなど、システム全体で「機械学習専用」を目指した高性能サーバ。

  • その他のサーバ

    この他のメーカー製品についても、お問い合わせください。