GPU / GPU - BASED SYSTEM
GPU・GPU搭載システム
GPUを装備した
高性能なコンピュータが必要ですか?
CUDA環境をメインとしてGPGPU(General-purpose computing on graphics processing units; GPUによる汎用計算)が注目されて久しいなか、機械学習/AIに関する分野で、特にDeep Learning手法を用いたアプローチが広く研究され実用に供されています。それらを支えるGPU搭載サーバ/ワークステーション・ラックマウントサーバをご提供いたします。 GPUカードを1枚搭載したエントリーモデルならいざ知らず、本格的に取り組むため複数のコンピューティングボードやGPUボードを搭載したシステムや、NVLink/NVLink Bridgeを活用したシステムは、カードの消費電力の大きさに起因する電源や廃熱にも配慮したシステムが必要です。 また、複数のユーザが利用するシステムは特に、Python環境や各種フレームワークの導入に配慮しなければなりません。Docker環境の活用も有効です。
GPU LINEUP
GPUラインナップ
GPGPUでデファクトスタンダードであるCUDA環境を使用するためには、NVIDIA社製のGPUカードが必要です。現時点で最新の製品はレイトレーシングに特化したRTコアと、拡張された第3世代Tensorコアを搭載するNVIDIA Ampere アーキテクチャです。
GPUカードの単体での販売や、システムへの追加についてもお問い合わせください。
※ | Tensorコアは4×4のマトリックスの積和算ユニットです。 ディープラーニングのインファレンス(推論)で効果を発揮する1サイクルで64の積和算が可能なコアで、FP16やInt8/Int4(Turingのみ)の演算をサポートしています。 |
---|
-
コンピューティングボート
倍精度浮動小数点演算を必要とする数値計算やシミュレーション用途
NVIDIA A SERIES(MIG対応)
- NVIDIA H100 SXM/H100 PCIe 80GB NEW
- NVIDIA A100 SXM4/PCle4.0 80GB
- NVIDIA A30
NVIDIA Ampere アーキテクチャ
-
GPUボード
AI推論/機械学習/単精度浮動小数点演算での数値計算やシミュレーション用途用途
NVIDIA A SERIES(vGPU対応)
- NVIDIA A40
- NVIDIA A16
- NVIDIA A10
- NVIDIA A2
NVIDIA RTX SERIES (active FAN)
- NVIDIA RTX A6000
- NVIDIA RTX A5000
- NVIDIA RTX A4500
- NVIDIA RTX A4000
- NVIDIA RTX A2000 6GB/12GB
GeForce RTX SERIES(active FAN)
- GEFORCE RTX 3090
- GEFORCE RTX 3080Ti
- GEFORCE RTX 3070Ti
- GEFORCE RTX 3060/3060T
- GEFORCE RTX 3050
GPGPUでは、GPUメモリへの高速なアクセスが処理パフォーマンスに大きく寄与します。 その為、PCIeバス(PCIe Ver3 x16)の約32GB/sを上回る300 GB/sのスピードでGPU間/GPU-CPU間を接続するNVLinkが開発されました。PCIeバスもVer4 の登場で倍の転送レートとなりましたが、NVLinlkも第3世代となり600GB/sへと進化しています。
またNVLinkは、アプリケーションのサポートが必要ですが、2枚のGPUカードをPCIeバスとは別に専用アダプタでNVLink接続するNVLinkSLIとしても応用されています。
GPU SYSTEM
GPU搭載システム

VT64シリーズ
処理能力・ストレージ量・高速ネットワークインタフェースなど、大きなカスタマイズ範囲を持つ、弊社オリジナルのオーダメイド製品です。NVLink対応製品や、3~最大20GPUに対応します。 Windows10やWindows Server、各種Linux等のOSをお選びいただけます。 コストパフォーマンスや特別な性能要求にも対応いたします。

メーカー製品
様々な特徴を持ち、特に高度な保守サービス、運用管理を容易にするシステム管理機能などでメリットのある大手メーカー製品を、適材適所でご提案いたします。 この他のメーカー製品についても、お問い合わせください。
-
HPE Apollo 6500 Gen10システム
4U1ノードのNVLinkに対応したハイエンドGPUサーバ。 「NVIDIA Tesla V100 GPU」を最大8基搭載。 更にPCIe3.0 x16スロットによるGPUカード搭載可能。
-
Dell EMC DSS 8440機械学習サーバ
4U1ノードのNVIDIA Tesla V100を最大10基搭載するサーバ。 最大10本のNVMe SSD、SAS/SATA SSD、InfiniBandのサポート、8本のPCIex16スロットなど、システム全体で「機械学習専用」を目指した高性能サーバ。
-
その他のサーバ
この他のメーカー製品についても、お問い合わせください。