AI 解决方案

使用 RAG 和多种 LLM 选项安全地自动执行任务

介绍

为了简化重复性任务或完全实现自动化,为什么不寻求 AI 的帮助?使用基础模型自动执行重复性任务听起来很有吸引力,但可能会使机密数据面临风险。检索增强生成 (Retrieval-augmented Generation,RAG) 是微调的替代方法,可使推理数据与模型语料库隔离。

我们希望将推理数据和模型保持分离 - 但我们也希望选择我们使用的大型语言模型 (LLM) 和强大的 GPU 来提高效率。想象一下,如果你能用一个 GPU 完成这一切!

在本演示中,我们将介绍如何使用单个 NVIDIA A10 GPU 部署 RAG 解决方案;一个开源框架,例如 LangChain、LlamaIndex、Qdrant 或 vLLM;以及 Mistral AI 提供的 7 亿参数 LLM。它是价格和性能的极佳平衡,并在根据需要更新数据时保持推断数据分离。

演示

演示:使用 RAG 和一系列 LLM 选项安全地自动执行任务 (1:15)

先决条件和设置

  1. Oracle Cloud 账户 - 注册页面
  2. Oracle GPU 计算实例— 文档
  3. LlamaIndex — 文档
  4. LangChain — 文档
  5. vLLM — 文档
  6. Qdrant — 文档

注:为免疑义,本网页所用以下术语专指以下含义:

  1. 除Oracle隐私政策外,本网站中提及的“Oracle”专指Oracle境外公司而非甲骨文中国 。
  2. 相关Cloud或云术语均指代Oracle境外公司提供的云技术或其解决方案。