Oracle Cloud Infrastructure (OCI) Computeは、NVIDIA GPUを実装したベア・メタルや仮想マシン(VM)インスタンスに業界をリードするスケーラビリティをもたらし、メインストリームのグラフィックス、AI推論、AIトレーニング、デジタル・ツイン、およびHPCを実現します。
OCI Superclusterは、心臓病研究で使用される大規模言語モデル(LLM)のトレーニングを高速化するために、高いパフォーマンスのGPUを大規模に提供します。
拡張性
131,072
OCI Supercluster内のGPUの最大数1
パフォーマンス
3,200
最大3,200GbpsのRDMAクラスタ・ネットワーク帯域幅2
価値
220%
他社CSPのGPUと比べて最大220%低価格3
選択肢
VM/BM
ベアメタル・インスタンスによるVMでのサイズ適正化とパフォーマンス
1: OCI Superclusterは、最大131,072個のNVIDIA B200 GPUs(予定)、NVIDIA GB200 Superchips内の00,000個以上の NVIDIA B200 GPU(予定)、65,536個のH200 GPU(予定)、32,768個のNVIDIA A100 GPU、16,384個のNVIDIA H100 GPUまで拡張できます。
2: NVIDIA H100 GPUを搭載したベア・メタル・インスタンスの場合。
3: 2024年6月5日時点のオンデマンド価格に基づいています。
OCIは、NVIDIA GPUを搭載したベアメタル・インスタンスを提供する唯一の大手クラウド・プロバイダーであり、仮想化のオーバーヘッドを伴わない高いパフォーマンスを実現します。AIトレーニング時のチェックポイント処理では、オラクルのインスタンスはノード当たりで最大のローカル・ストレージ(61.44TB)を提供します。
OCIは、NVIDIA H100 Tensor Core GPU、L40S GPU、A100 Tensor Core GPU、A10 Tensor Core GPU、および旧世代のNVIDIA GPUを実装したベアメタルおよび仮想マシン・コンピュート・インスタンスに最高の価値とパフォーマンスを提供します。OCIでは、NVIDIA H200とBlackwell GPUを搭載したインスタンスの提供を予定しています。
OCIは、NVIDIA GH200 Grace Hopper Superchipを提供しており、LLM 推論用にGB200 Grace Blackwell Superchipを提供する予定です。
オラクルの超低レイテンシ・クラスタ・ネットワーキングは、リモート・ダイレクト・メモリ・アクセス(RDMA)をベースとし、マイクロ秒レベルのレイテンシを実現します。
VM向けには、NVIDIAのHopper、Ampere、および以前のGPUアーキテクチャから、1~4コア、VMあたり16~64 GBのGPUメモリ、および最大48 Gb/secのネットワーク帯域幅を選択できます。
NVIDIAのBlackwell、Hopper、またはAmpere Superchipsと、ノードあたり640 GBのGPUメモリを持つGPUを使用したベアメタル・インスタンスでOCI Superclusterを使用します。
マネージドKubernetes、サービス・メッシュ、コンテナ・レジストリを活用し、コンテナを使用してAIおよび機械学習(ML)のトレーニングや推論をオーケストレーションします。
Oracle Cloud Marketplaceでは、データ・サイエンス、分析、人工知能(AI)、および機械学習(ML)モデル用のソフトウェアとディスク・イメージを提供します。これにより、お客様はデータから迅速にインサイトを得ることができます。
NVIDIA AI Enterpriseへのアクセスを取得しましょう。これは、生成AI、コンピュータ・ビジョン、音声AIといったデータ・サイエンスおよび本番AI向けの、エンドツーエンドのソフトウェア・プラットフォームです。
OCI上のNVIDIA DGX Cloudは、サービスとしてのAIトレーニングを提供するプラットフォームであり、生成AI向けに最適化されたサーバーレス環境を開発者に提供します。
NVIDIA GPU Cloud Machine Imageは、さまざまな業界やワークロードを対象とした機械学習、ディープラーニング、ハイパフォーマンス・コンピューティング向けとして、GPUが最適化された数多くのアプリケーションにご活用いただけます。
Oracle Cloud上でNVIDIA RTX仮想ワークステーションを実行することにより、従業員が必要とするあらゆる場所で強力なワークステーション・パフォーマンスを実現できます。
OCI Dedicated Regionでフル機能のクラウド・リージョンをデータセンターに導入すると、データとアプリケーションを詳細に制御できます。
Oracle Alloyのパートナーになると、市場の特定のニーズに応えるクラウド・サービスを提供できます。
コンテナを使用してアプリケーションを構築する開発者は、オラクルが管理する可用性の高いプライベート・コンテナ・レジストリ・サービスを活用して、コンテナ・イメージを保存および共有できます。Docker V2 APIおよび標準のDockerコマンド・ライン・インターフェイス(CLI)を使用して、レジストリとの間でDockerイメージをプッシュまたはプルします。イメージをKubernetesデプロイメントに直接プルできます。
Functions as a Service(FaaS)を使用すると、開発者はOracle Cloud Infrastructure、Oracle Cloud Applications、およびサードパーティのサービスと統合されるサーバーレス・アプリケーションを実行できます。オープン・ソースFnプロジェクトのコミュニティとともに開発者の効率を改善します。
OCI Data Scienceや、ベアメタル・インスタンス、RDMAに基づくクラスタ・ネットワーキング、およびNVIDIA GPUを使用して、AIモデルのトレーニングを行います。
OCIは、物体の空力特性を迅速に予測するためのコンピュータ支援エンジニアリングと計算流体力学を実現します。
OCI、エグゼクティブ・バイスプレジデント、Mahesh Thiagarajan
Oracle Cloud Infrastructure(OCI)のお客様は、OCI上で最も高度なAIワークロードのいくつかを実行しています。そうしたお客様の成功は、強力なセキュリティと主権管理を備えた、最高のパフォーマンスを発揮するAIインフラストラクチャを、 クラウドで最良の価値でお客様に提供するという当社の戦略を強化します。
全文を読むオラクルでは、ほとんどのAIサービスで無料価格帯を提供しています。また、無料トライアル・アカウントに提供されるUS$300のクレジットを使って、追加のクラウド・サービスをお試しいただけます。AIサービスとは、開発者がアプリケーションや業務にAIを簡単に適用できるようにする、デフォルトの機械学習モデルを備えた生成AIなどを含む一連のサービスです。
また、OCI Data Scienceではコンピュートとストレージの使用料のみ。
Oracle Cloudの価格は、わかりやすく、世界中で一貫性のある低価格であり、さまざまなお客様事例をサポートしています。コストを見積もるには、コスト見積ツールをチェックし、ニーズに応じて、サービスを設定します。
次期AIソリューションの構築やOCI AIインフラストラクチャへのAIワークロードの導入をお手伝いするサポートをご利用ください。