Data Science 服务的特性


数据准备

灵活的数据访问

数据科学家可以访问和使用任何云端或本地的任何数据源,因此将提供更多潜在数据特性,构建更加优质的模型。

数据标记

Oracle Cloud Infrastructure (OCI) Data Labeling 是一个给数据集做标注的服务,以更准确地训练人工智能和机器学习模型。借助 OCI Data Labeling,开发人员和数据科学家可以汇编数据、创建和浏览数据集以及为数据记录添加标注。

利用 Spark 进行大规模数据准备

将交互式 Spark 查询提交到 OCI Data Flow 的 Spark 集群,或使用 Oracle Accelerated Data Science SDK 轻松开发 Spark 应用,然后在 OCI Data Flow 上规模化地运行应用 — 所有流程都在 OCI Data Science 环境中完成。

特征平台(预览)

通过全托管式执行来定义特征工程管道和构建特征;面向特征和特征管道进行版本控制和文档管理;共享、管理和控制特征访问;将特征应用于批处理和实时推理场景。

模型构建

JupyterLab 界面

内置、云端托管的 JupyterLab 记事本环境支持数据科学团队使用熟悉的用户界面轻松构建和训练模型。

开源机器学习框架

OCI Data Science 具有出色的易用性和通用性,不仅支持数百种常用的开源工具和框架(例如 TensorFlow 或 PyTorch),还支持用户添加其他框架。得益于 OCI 与 Anaconda 的战略合作关系,OCI 用户可以直接免费从 Anaconda 库下载和安装程序包,更轻松地访问安全的开源软件。

Oracle Accelerated Data Science (ADS) 库

Oracle Accelerated Data Science SDK 是一个用户友好的 Python 工具包,可通过完整的端到端数据科学工作流为数据科学家提供强大支持。

模型训练

强大的硬件,包括图形处理单元 (GPU)

借助 NVIDIA GPU,数据科学家可以更快地构建和训练深度学习模型。性能可提升 5 到 10 倍。

作业

使用 Jobs 运行可重复的数据科学任务。利用裸金属 NVIDIA GPU 和分布式训练支持,轻松扩展模型训练。

在控制台中编辑作业工件

使用 Code Editor(代码编辑器)直接在 OCI Console 中轻松创建、编辑和运行 OCI Data Science 作业工件。该特性支持 Git 集成、自动版本控制、个性化等等。

治理和模型管理

模型目录

数据科学家可使用模型目录来保存和共享已完成的机器学习模型。模型目录将存储工件并捕获元数据,包括模型的分类法和上下文、超参数、模型输入和输出数据模式的定义,以及关于模型来源的详细信息(包括源代码和训练环境)。

模型评估和对比

自动生成全面的评估指标和可视化视图,从而对照新数据来衡量模型表现,对比候选模型。

可重现的环境

利用预构建、精心设计的 conda 环境来满足广泛的使用场景的需求,例如 NLP、计算机视觉、预测、图形分析和 Spark。您可以发布自定义环境并与同事共享,确保训练和推理环境的可重复性。

版本控制

数据科学家可以连接至企业的 Git 信息库,以便保存和检索机器学习工作。

自动化和 MLOp

托管模型部署

将机器学习模型部署为 HTTP 端点,从而实时为新数据提供模型预测。您只需从模型目录中点击一下即可部署,OCI Data Science 将处理所有基础设施工作,包括计算供应和负载均衡。

机器学习管道

通过全托管式服务来编写、调试、跟踪、管理和执行机器学习管道,从而建立规范化、自动化的模型开发、训练及部署工作流。

机器学习监视

持续监视生产环境中的模型是否存在数据和概念偏差。同时,数据科学家、站点可靠性工程师和 DevOps 工程师可以接收警报,快速评估模型再训练需求。

机器学习应用

机器学习应用(最初为 Oracle SaaS 应用而开发,旨在嵌入 AI 特性)现已广泛应用于 MLOp 生命周期(包括开发、供应、持续维护和集群管理)自动化,可为 ISV 提供数千种模型,满足数以千计的客户的需求。

AI 快捷操作

无代码式访问

通过 OCI Data Science 记事本中的无缝用户界面,无需编写任何代码即可使用来自 Mistral、Meta 等的 LLM。

从 OCI Object Storage 导入任何 LLM,然后通过易于使用的用户界面进行微调和部署。

部署

只需点击几下,即可部署 LLM,这些 LLM 由常用的推断服务器(例如来自 UC Berkeley 的 vLLM、来自 Hugging Face 的 Text Generation Inference 或来自 NVIDIA 的 TensorRT-LLM 提供支持,可实现理想的性能水平。

微调

为了达到理想的性能水平,您可以使用 PyTorch、Hugging Face Accelerate 或 DeepSpeed 进行分布式训练,从而优化 LLM。使用对象存储来存储微调权重。此外,以服务形式提供的 Condas 消除了自定义 Docker 环境,支持更快速共享。

评估

根据 BERTScore 或 Recall-Oriented Understudy for Gisting Evaluation (ROUGE),为您的 LLM 生成详细的评估报告,帮助您比较该模型与其他模型的性能。

注:为免疑义,本网页所用以下术语专指以下含义:

  1. 除Oracle隐私政策外,本网站中提及的“Oracle”专指Oracle境外公司而非甲骨文中国 。
  2. 相关Cloud或云术语均指代Oracle境外公司提供的云技术或其解决方案。