深度学习是机器学习 (ML) 的一个子集,指人工神经网络(由算法建模而成,能够像人的大脑一样工作)学习大量数据。
深度学习由神经网络层驱动。神经网络由一系列算法按照人类大脑的工作方式松散建模而成,而使用大量数据进行训练,即对神经网络的神经进行配置。经过训练后,深度学习模型可以处理新数据,能够摄取并实时分析多个来源的数据,无需人为干预。在深度学习中,图形处理单元 (GPU) 可以同时处理多个计算,以优化方式训练深度学习模型。
在现实中,深度学习助力众多人工智能 (AI) 技术改善自动化和分析任务。绝大多数人每天都会接触到深度学习,例如在浏览互联网或使用手机时。深度学习可为 YouTube 视频生成摘要;在手机和智能音箱上执行语音识别;针对图片开展人脸识别;驱动无人驾驶汽车。随着数据科学家和研究人员不断运用深度学习框架来处理日益复杂的深度学习项目,深度学习将逐步成为我们日常生活的一部分。
简单来说,深度学习就是具有多个神经层的神经网络的另一种说法。
为了充分利用观测数据(例如图片或音频),神经网络会跨互联的神经网络节点层传递数据。在每一个节点层上,每一个节点都会对数据进行简单运算,并有选择地将数据传递到其他节点。随着数据不断传递,每一个节点层都会利用比上一层更高级的特性来处理数据,直至输出结果。
在输入层与输出层之间,所有的神经网络层均被称为隐藏层。神经网络与深度学习的区别在于,一个基本的神经网络可能拥有一个或两个隐藏层,而一个深度学习网络可能拥有数十个甚至数百个隐藏层。一般来说,层数和节点越多,结果就越准确。不过,层数越多,深度学习模型的参数和对计算的需求就越多。
神经网络可通过一组输入层来接收原始数据,而深度学习可以通过神经网络层对信息进行分类。例如,经过鸟类图像训练的神经网络可以识别鸟类图像。更多的层意味着更准确的结果,例如随着层数增加,神经网络能够从区分乌鸦和鸡升级到区分渡鸦和乌鸦。此外,深度学习算法驱动的深度神经网络拥有多个隐藏层(位于输入节点和输出节点之间),可以完成更加复杂的数据分类工作。深度学习算法必须基于大量的数据进行训练,它接收的数据越多,就越准确。例如,只有经过数千张鸟类图像的训练,算法才能准确地对新的鸟类图像进行分类。
对于神经网络而言,深度学习模型训练是一项资源密集型工作。在训练中,神经网络摄取数据(即输入),然后隐藏层基于权重(即表示输入数据之间连接强度的参数,将在训练过程中适时调整)对数据进行处理,最后输出预测。其中,权重将基于训练所使用的输入数据进行调整,以此来优化预测。深度学习模型需要耗费大量时间来训练海量数据,因此,高性能计算不可或缺。
GPU 针对数据计算进行了专门优化,旨在提高大规模矩阵计算的性能。它尤其适用于并行执行大规模机器学习 (ML) 和深度学习,可帮助机器学习应用高效地对大量结构化或非结构化数据(例如图像、文本和语音)执行大量运算,实现卓越性能。
深度学习的一个重大优势是它的神经网络可揭示数据中的隐藏洞察和关系。通过利用更强大的机器学习算法来分析大规模的复杂数据,企业可以通过以下方式改善欺诈检测、供应链管理和网络安全:
深度学习算法可以分析社交媒体帖子、新闻资讯和调查报告,从而探查文本数据,提供有价值的业务和客户洞察。
深度学习模型的训练离不开标记数据。经过训练,深度学习模型可以自行标记新数据,识别各类数据。
机器学习算法可显著节约时间 — 无需手动从原始数据中提取特征。
经过适当训练,深度学习算法能够以远超人类的速度,持续执行数千项任务。
在深度学习中,神经网络适用于多种类型的数据和应用。而通过使用新数据重新训练,深度学习模型可响应新的变化。
尽管 AI、机器学习和深度学习相互关联,但它们之间存在本质区别:
人工智能可让计算机、机器和机器人模仿人,像人一样制定决策、识别对象、解决问题和理解语言。
机器学习是 AI 的一个子集,它专注于构建可自主学习(无需人为干预)数据,从而持续提高准确性的应用。经过训练,机器学习算法可识别数据模式,做出更明智的决策和预测,但这一般需要用户参与。
深度学习是机器学习的一个子集,可帮助计算机解决更复杂的问题。深度学习模型同样可以自主创建新特征。
深度学习可分析海量图像,帮助社交网络更深入地了解用户,进而改善有针对性的广告和建议
深度学习中的神经网络可预测股票价值,开发交易策略,检测安全威胁和防范欺诈。
深度学习在医疗卫生行业中发挥着重要作用。它可以分析趋势和行为,进而预测疾病。此外,医疗卫生行业还使用深度学习算法识别理想的测试和治疗方案。
深度学习相比传统恶意软件解决方案可以更好地检测高级威胁。它能够识别新的恶意活动,而不是单纯地响应已知威胁数据库。
数字助手是常见的深度学习应用。在自然语言处理 (NLP) 技术的帮助下,Siri、Cortana、Google 和 Alexa 可以响应用户问题,适应用户习惯。
尽管新应用不断涌现,深度学习技术仍处在发展之中,面临以下挑战:
为了捕获更深刻、更抽象的答案,深度学习需要使用大量数据来训练算法。与人的大脑一样,深度学习算法的训练也离不开示例,它需要从错误中学习,只有这样才能优化结果。
机器的学习方式极为有限,这很容易带来错误。深度学习网络只有基于相应的数据来才能解决特定问题,如果执行超出数据范围的任务,那机器学习极有可能会失败。
深度学习需要从数百万个数据点中检测模式,一般用户很难想象神经网络是如何工作的。由于无法透明地了解它们如何处理数据,用户很难识别偏见和解释预测结果。
尽管面临这些挑战,数据科学家还是不断精进,构建高度准确的深度学习模型来进行无监管学习,加快深度学习速度,减轻人工负担。
随着业务数据爆炸,数据科学家需要以相比本地部署 IT 硬件更高的灵活性,快速探索和构建深度学习模型。
Oracle Cloud Infrastructure (OCI) 提供具有杰出成本效率的计算服务满足数据密集型工作负载需求,同时提供快速云端存储以及低延迟、高吞吐量、支持 100 Gbps RDMA 的网络服务。此外,OCI 还提供面向深度学习的 GPU 计算实例,提供易于部署的镜像,支持灵活地运行一个 GPU 工作站或多个 GPU 配置的集群。
立即试用 Oracle Cloud Infrastructure Data Science,在高性能云基础设施上开发、训练和部署机器学习模型。数据科学家可以在记事本会话中使用 NVIDIA GPU,更快速地构建和训练深度学习模型。还可以灵活选择计算和存储资源,满足各种规模的项目需求,无需担心基础设施的供应或维护问题。简而言之,OCI Data Science 可以理顺数据科学任务,例如数据访问、算法选择和模型解释,助力企业加速构建深度学习模型。
注:为免疑义,本网页所用以下术语专指以下含义: