大規模言語モデル(LLM)を使用する場合、通常、モデルが与えられたトレーニング・データに応答します。ただし、これらのモデルのトレーニングは、GPUやパワーなどの多くのリソースを使用するため、難しい場合があります。
幸いなことに、モデルの最適化は、ファインチューニングと呼ばれるプロセスを通じて、より少ないデータで「より小さなトレーニング」バージョンを実現するように進んでいます。
次の具体的なサンプル・ソリューションは、OCIコンソールのインタフェースであるOracle Cloud Infrastructure (OCI)生成AIプレイグラウンドを使用してLLMを微調整する方法を示しています。
このページは機械翻訳したものです。
ご購入をお考えですか?
営業担当者に問い合わせる営業担当者とチャットアカウント/サブスクリプション、プロモーションの問題
チャットを開始テクニカルサポート、またはその他のサポートリクエスト
サポート・オプションを表示