AI Vector Searchに関するFAQ

FAQのトピック

一般的な質問

ベクトルとは

ベクトルとは、テキスト、画像、音声、動画を数値で表現したもので、元となる単語やピクセルではなく、データの意味をエンコードしたものです。

ベクトルの作成方法を教えてください。

事前トレーニング済ベクト埋め込みモデルは、入力(テキスト、画像、音声、動画)に対して推論を行い、出力としてベクトルを生成します。ベクトルは入力に対する推論後のニューラル・ネットワークの最後の非表示レイヤーの値です。

サポートされるベクトルの次元数を教えてください。

Oracle AI Vector Searchは最大65,535ディメンジョンをサポートします。

サポートされるベクトルの数値フォーマットを教えてください。

AI Vector SearchはINT8、Float32、およびFloat64フォーマットをサポートしています。

ベクトルの大きさを教えてください。

  • 数式によって異なります。たとえば、1つの数式は次元数×数値フォーマットのサイズです。
  • ほとんどのベクトルには128から4,096の次元があります。
  • ほとんどのベクトルはFloat32(4バイト)またはそれ以下です。
  • ほとんどのベクトルは1.5KBから8KBの間のサイズである傾向があります。

データベース内でベクトルを作成することは可能ですか。

はい、vector_embedding()SQL関数を使ってデータベース内でベクトルを作成することができます。

Hugging FaceからSentence-Transformer embedding modelを選択し、データベースにセキュアにアップロードすることができます。

データベース外でベクトルを作成することは可能ですか。

はい、RESTコールまたはローカルライブラリを使用した商用モデルおよびオープンソースモデルを使用して、データベースの外部にベクトルを作成することができます。

テストされた埋込みモデルには、openai.com、cohere.com、Hugging Face Transformers、Sentence-Transformers、Transformers.js、ONNX Runtimeがあります。

ベクトルを作成するうえでGPUは必要になりますか。

ベクトルはCPUまたはGPUのいずれかを使用して作成できます。

AI Vector SearchはどのLLMに対応していますか?

AI Vector Searchは、どのようなLLMにも対応しています。

これまでのところ、Llama2、Gemini、PaLM 2、およびOpenAIのChatGPT、またCohere、Vertex AI、Mistral AIによって開発されたLLMがテストされています。

AI Vector Searchはどの埋込みモデルに対応していますか?

OpenAI、Cohere、ONNX Remoteなど90以上の埋め込みモデルが、Transformer、Sentence Transformer、Transformer.js、Xenova、FastEmbedなどのモデルと同様にテストされています。

AI Vector SearchはLangChainをサポートしていますか。

Oracle AI Vector Searchは、LangChainのOracle AI Vector Searchプロバイダーをサポートしています。