大規模な言語モデルに対して推論リクエストを大規模に提供し、AI導入を加速するにはどうすればよいでしょうか。Oracle Cloud Infrastructure (OCI) Container Engine for Kubernetes (OKE)にエンタープライズ対応ソリューションNVIDIA NIMをデプロイします。このデモでは、OCI Object Storageでホストされているモデル・リポジトリを使用して、OKEにNVIDIA NIMをデプロイする方法を示します。Helmデプロイメントを使用して、推論リクエストの数に応じてレプリカの数を簡単にスケール・アップおよびスケール・ダウンし、簡単に監視できます。OCI Object Storageを活用して、さまざまなタイプのモデルをサポートし、どこからでもモデルを導入できます。NVIDIA GPUを搭載し、NIMを最大限に活用して、推論リクエストの最大スループットと最小レイテンシを実現できます。
このページは機械翻訳したものです。
ご購入をお考えですか?
営業担当者に問い合わせる営業担当者とチャットアカウント/サブスクリプション、プロモーションの問題
チャットを開始テクニカルサポート、またはその他のサポートリクエスト
サポート・オプションを表示