FEATURES
GPUSOROBANが
選ばれる理由

選ばれる理由01

NVIDIA H200を
すぐに使える

最新のNVIDIA H200をはじめとする高性能GPUを、申し込み後すぐに利用可能。​AI開発やシミュレーションに最適な環境を、待ち時間なく提供します。

選ばれる理由02

自社データセンター
運用で、
安定&高セキュリティ

国内に自社運営のデータセンターを構築し、安定した稼働と高いセキュリティを実現。​大切なデータを安心してお預けいただけます。

選ばれる理由03

国内最適価格。
クラウドなのに
オンプレよりもお得

自社運用によるコスト削減を活かし、国内最適価格を実現。​オンプレや他社クラウドサービスと比較して、圧倒的なコストパフォーマンスを提供します。​

価格比較を見る

選ばれる理由04

企業・研究機関を中心に
2,000件以上の利用実績

IT業界、製造業、建設業、大学研究機関まで幅広くご利用いただいています。高い性能とサポート体制で、プロフェッショナルのニーズに応えます。

導入事例を見る

USE CASE
GPUSOROBANの
利用イメージ

どんな人におすすめ ?

  • AI・機械学習エンジニア
  • 製造業・大学・研究機関
  • AIスタートアップの開発チーム
  • LLMや生成AIの開発に取り組む企業
  • 期間限定の研究プロジェクトやPoC

こんなシーンで
使われています

AIモデルの学習
(ロボット、画像生成など)

ロボットの視覚認識や画像生成AIのトレーニングには、大量のデータと高い計算能力が求められます。​GPUSOROBANの高性能GPUは、これらのニーズに応え、迅速なモデル開発を可能にします。

LLMの基盤モデル開発

大規模言語モデル(LLM)のトレーニングには、膨大な計算リソースが必要です。​GPUSOROBANは、LLMの開発やファインチューニングを行う企業や研究機関に、必要なGPU環境を提供します。

大学や企業での
短期研究プロジェクト

期間限定の研究プロジェクトやPoCでは、短期間で高性能なGPUの計算基盤が求められます。GPUSOROANは、低コストかつ柔軟なリソース提供でこれらのニーズに答えます。

専有可能な
生成AIインフラの構築

社内でのAI開発において、オンプレミスでGPU環境を構築するには、時間とコストがかかります。GPUSOROBANなら、専有型で安全性の高いGPU環境をすぐに使い始められます。

COMPARE PRICES
GPUメモリが
1.7倍なのに、70%も安い

HGX H200とH100インスタンスの料金比較

COMPARISON
クラウドなのに
オンプレよりも安い

オンプレ購入費用+ハウジング費用 AIスパコンクラウド オンプレ購入費用+ハウジング費用の内訳月額費用(5年償却) オンプレ購入費用 ¥1,100,000 ハウジング費 ¥1,342,000 オンプレ購入費用+ハウジング費用 AIスパコンクラウド オンプレ購入費用+ハウジング費用の内訳月額費用(5年償却) オンプレ購入費用 ¥1,100,000 ハウジング費 ¥1,342,000

※金額は税込みです。
※オンプレミス購入費用1,100,000円+ハウジング費用1,342,000円。オンプレミスの月額費用は、5年償却で計算しています。ハウジング費用には、ラック利用料・電力コスト・回線費用・保守費用を含みますが、ルーターやスイッチなどのネットワーク機器は含まれておりません。
※AIスパコンクラウドの月額費用は、5年割引適用後の金額です。ラック利用料・電力コスト・データ転送料・追加コストは発生しません。

PLAN
AIスパコンクラウドの
料金プラン

feature_icn_1

スライド

構成 シングルノード構成 クラスタ構成
特徴 HGX H200 x1ノード HGX H200 x複数ノード
月額費用(税込み) ¥2,783,000 お問い合わせ
GPU/ノード NVIDIA H200(SXM) x8枚 NVIDIA H200(SXM) x8枚
GPU メモリ/ノード 総計1128GB 総計1128GB
GPU メモリ帯域幅 4.8TB/秒 4.8TB/秒
GPU間通信 NVLink NVSwitch NVLink NVSwitch
vCPU/ノード 112コア 112コア
システムメモリ/ノード 2TB 2TB
ストレージ/ ノード 30TB 30TB
演算性能/ノード
(FP16 Tensorコア)
15.8PFLOPS 15.8PFLOPS
ノード数 1ノード 複数ノード(ノード数指定)
ノード間通信 - 1600Gbps
OS Ubuntu OS Ubuntu OS
リージョン 日本 日本

TRIAL DETAILS
30日間
無料トライアル詳細

対象ユーザー 法人のお客様限定
利用期間 お申し込みから30日間
対象GPUサーバー HGX H200
対象インスタンス構成
  • GPUNVIDIA H200(SXM)×8基
  • GPUメモリ合計 1128GB
  • CPU112コア
  • システムメモリ2TB
  • ストレージ30TB
サポート内容
  • 環境構築・技術サポート付き
  • CUDA・NVIDIAドライバ・
    Dockerプリインストール済み
H200無料トライアル
ご利用条件
  • ・トライアルのご利用は、1社につき1回までとさせていただきます。
  • ・トライアル期間終了の5営業日前までに、継続利用のご希望についてご連絡をお願いいたします。
  • ・貸し出し用サーバーの在庫状況により、トライアルのご利用時期のご希望に沿えない場合がございます。

SECURITY SUPPORT
セキュリティ・
サポート体制

暗号化通信による
情報漏洩対策

サーバー専有により、
セキュアな環境

安心の日本国内
データセンター

機密データにも
安心の環境

技術者による
個別サポートあり

FAQ
よくある質問

Q期間終了後は自動課金されますか?

A 無料トライアル期間終了後に自動で課金されることは一切ありません。
ご希望の場合のみ、有料プランへの切り替え手続きを行っていただきます。

Qどのようにインスタンスに接続しますか?

A ブラウザからマウス操作でインスタンスに接続できます。
ローカル環境~プロキシサーバ間をHTTPS接続し、プロキシサーバ~インスタンス間をSSH接続する方式になっております。

Qインスタンスでdockerは
使用できますか?

A Dockerをプリインストールして提供可能です。
他にもUbuntu OS、CUDA、NVIDIAドライバ等のバージョンを指定してプリインストールが可能です。

QNVIDIAドライバのバージョンは変更可能ですか?

A 変更可能です。

Q技術サポートはありますか?

A 経験豊富な日本人スタッフによる技術サポートを無料でご利用いただけます。
使い方のレクチャーから環境構築のアドバイスまでベストエフォートで対応いたします。

Qセキュリティ対策は
どうなっていますか?

A GPUSOROBANは国内の自社データセンターから提供しているため、国外への情報漏洩のリスクが抑えられます。
通信経路はSSH接続によって暗号化することで安全に保護しています。(公開鍵認証)
物理サーバを専有する形でインスタンスを提供しているため、他のユーザーからの影響を受けません。

ABOUT
GPUSOROBAN
「AIスパコンクラウド」とは?

「GPUSOROBAN」は、株式会社ハイレゾが提供するAI開発専用のGPUクラウドサービスです。
大量のデータを処理し、複雑なAIモデルを高速にトレーニング・実行できる、“スパコン並み”の計算性能をクラウドで手軽に使えるのが最大の特徴です。

なぜ
「AIスパコンクラウド」
なのか?

スパコン級のGPU性能を
クラウドで提供

最新のNVIDIA製GPU「H200」を搭載しており、複数GPUによる並列処理にも対応しています。そのため、大規模なモデルにも柔軟に対応することが可能です。

AI開発に最適化された
インフラ環境

データサイエンス、LLM、生成AIなどに特化した構成となっており、自社で管理する香川のデータセンターにて運用を行っています。これにより、信頼性とセキュリティを確保しています。

月額制のシンプルな
料金プラン

「使いたいときに使える」定額制のため、予算管理がしやすくなっています。AWSなどと比較してもコストの最適性が高い点も魅力です。

こんな方におすすめ!

398
  • AI開発に本腰を入れたいが、
    GPU調達が難しい
  • クラウドのセキュリティが
    心配で導入を迷っている
  • PoCやスタートアップフェーズで、
    初期コストを抑えたい

MERIT
クラウド×H200の
主なメリット

MERIT
01

MERIT
01

初期投資
ゼロ&スケーラブル

  • オンプレの場合、H200搭載マシンには数千万円規模の初期投資が必要となります。
  • クラウドであれば、必要なときに必要な分だけ利用することができます。
  • プロジェクトの内容やピークに応じて、スケールアップ・スケールダウンを柔軟に行うことが可能です。

MERIT
02

MERIT
02

すぐに開発を
スタートできる

  • NVIDIAドライバ、CUDA、Docker、Python、PyTorch、JupyterLabなどの環境をプリインストールした状態でご提供することが可能です。
  • DockerHUBやNGC(NVIDIA GPU Cloud)などのリポジトリから取得したDockerイメージを用いて、コンテナを簡単に作成できるため、環境構築にかかる時間を大幅に削減できます。

MERIT
03

MERIT
03

GPUメモリは
H100の「1.7倍」

  • H200は、H100に比べて「1.7倍のGPUメモリ」を搭載しているため、
    膨大なパラメータをもつLLMモデルに対応可能です。
  • LLMで重要視される「GPUメモリ帯域幅」も、H100と比較して1.4倍に向上しています。
    これによりデータ転送がさらに高速化し、計算速度が向上しています。

MERIT
04

MERIT
04

構築不要でGPU
クラスタが使える

  • インターネットさえあればアクセスして利用を開始でき、導入や管理の負担を大幅に減らすことが可能です。
  • GPUインスタンス、ネットワーク、高速分散ストレージ、OS、ジョブスケジューラまで構築済みの状態から利用開始できます。