深度學習是機器學習 (ML) 的一部分,其中的人工神經網路演算法模型是以人類腦 - 從大量資料中學習。
深學學習由一系列神經網路提供技術支援,這類工具依人類大腦運作方式而成的演算法。含有大量資料的訓練,是在神經網路中設定神經元。結果就是一個深度學習模型,一旦經過訓練,即可處理新資料。深度學習模型會採用多個資料來源的資訊,並即時分析該資料,而不需要人力介入。在深度學習中,圖形處理單元 (GPU) 會針對訓練模型進行最佳化,因為它們可以同時處理多個運算。
深度學習能夠提升自動化和分析工作的多個人工智慧 (AI) 技術。大部分的人每天瀏覽網際網路或使用他們的手機時,都遇到深度學習。除了無個數的其他應用程式之外,深度學習是用來產生 YouTube 影片的標題、對電話與智慧型喇叭執行語音辨識功能、提供相片臉部辨識功能,以及啟用自動駕駛汽車。而資料科學家和研究人員利用更深入的學習架構來解決日益複雜的深度學習專案,這類人工智慧只會成為我們日常生活更大的一部分。
簡單來說,深度學習是具有許多層之神經網路的名稱。
為了讓觀察資料 (例如相片或音訊),神經網路會透過節點的相互連接層傳遞資料。當資訊通過圖層時,該圖層中的每個節點會對資料執行簡單的作業,並選擇性地將結果傳遞至其他節點。每個後續的層都聚焦於較高層級的功能,直到網路建立輸出為止。
在輸入圖層和輸出圖層之間是隱藏的圖層。在這樣的差別在於神經網路與深度學習之間有分歧:基本神經網路可能是一或兩個隱藏的層,而深度學習網路則可能有數十或甚至數百個圖層。增加不同圖層和節點的數目可能會提高網路的準確性。不過,更多圖層也表示模型需要更多參數和計算資源。
深度學習可透過多層神經網路 (其中具有一組可接收原始資料的輸入) 將資訊分類。例如,若神經網路訓練有鳥類圖像,就能用來辨識鳥類的圖像。多層可產生更精確的結果,例如相較於分辨出群眾與雞肉的程度,便能區別人群。深度學習演算法後方的深度神經網路層與輸出節點之間具有數個隱藏層,這表示它們能夠達成更複雜的資料分類。深度學習演算法必須接受大量資料訓練,而且更正確的資料,它能夠獲得更精確;它必須與 50 英尺的鳥類;才能準確分類鳥類新照片。
對神經網路來說,訓練深度學習模式非常需要資源。這是神經網路擷取輸入,其輸入是使用重量 (代表輸入之間的連接強度的參數) 在訓練期間進行調整,然後進行預測時會在隱藏的圖層中處理。重量會根據訓練輸入進行調整,以提供更佳的預測。深度學習模型會花費大量時間訓練大量資料,因此高效能運算相當重要的原因。
GPU 會針對資料運算進行最佳化,而且是專為計算大型矩陣的速度效能而設計。GPU 最好適用於平行執行大型機器學習 (ML) 與深度學習問題。因此,針對大量結構化或非結構化資料 (例如影像、文字,以及視訊) 執行大量運算的 ML 應用程式,並享有良好的效能。
深度學習的其中一個主要優點是神經網路用來揭露先前未見的資料隱藏洞見和關係。藉助更健全的機器學習模型,分析大型複雜的資料,公司運用下列方式來改善詐騙偵測、供應鏈管理以及網路安全性:
透過分析社群媒體發文、新聞和調查,難以深入查看文字資料。分析社群媒體發文、新聞和調查,以提供寶貴的業務和客戶洞見。
深度學習需要標示為訓練資料。訓練之後,就可以為新的資料加上標籤,並自行識別不同類型的資料。
深度學習演算法可以節省時間,因為它不需要人類從原始資料手動擷取功能。
正確地訓練深度學習演算法時,可以更快地執行數以千計的作業,速度比人類更快。
深度學習中使用的神經網路可套用至許多不同的資料類型與應用程式。此外,深度學習模型還可以使用新資料重新訓練以適應。
AI、機器學習和深度學習都相互關聯,但它們具有截然不同的功能:
人工智慧讓電腦、機器或機器人模仿人的能力,例如決策、辨識物件、解決問題及理解語言。
機器學習是人工智慧集中在建置應用程式的子集,可隨時從資料得以改進其準確性,而無須人為介入。機器學習演算法可以透過訓練來找出能夠做出更好的決策和預測,但通常需要人力介入。
深度學習屬於機器學習的一部分,可讓電腦解決更複雜的問題。深度學習模型也能夠自行建立新功能。
深度學習可用來分析大量影像,協助社群網路深度學習其使用者。這樣可以改善目標廣告並遵循建議。
深度學習中的神經網路可用來盜用股票價值並發展貿易策略,也能夠找出安全威脅並防止詐騙。
深度學習可透過分析趨勢和行為來病患的病患者,在醫療照護領域扮演重要角色。醫療照護人員也可以採用深度學習演算法,決定病患的最佳測試與治療方式。
深度學習可透過識別新的可疑活動,而非回應已知威脅的資料庫,比傳統惡意軟體解決方案偵測進階威脅。
數位助理代表深度學習的部分最常見的範例。在自然語言處理 (NLP) 的協助下,Siri、Cortana、Google 以及 Alexa 可以回應問題,並適應使用者習慣。
雖然也有新的深度學習使用,但由於下列限制,因此仍是持續發展的領域:
為了獲得更具洞見和抽象的解答,深度學習需要提供大量資料以訓練。相似於人類腦,深度學習演算法需要範例,這樣才能了解錯誤並改善結果。
機器仍以極窄的方式學習,這可能導致失誤。深度學習網路需要資料才能解決特定問題。如果要求在該範圍之外執行作業,則很可能會失敗。
隨著數百萬個資料點來尋找樣式,但也很難了解神經網路如何到達其解決方案。這對於處理資料的透明度不足,使得識別不必要的生物並說明預測困難。
儘管這類颶風,資料科學家會越來越接近、更接近建立高度準確的深度學習模型,讓學習模型變得越來越深入,並降低勞力。
資料分析師需要能夠快速探索及建置深度學習模型,而且比傳統內部部署的 IT 硬體能夠提供更多彈性。
Oracle Cloud Infrastructure (OCI) 提供極高性價比的運算,適用於需要大量資料工作負載、快速雲端儲存,以及低延遲、高傳輸量的網路,100 Gbps RDMA。OCI 也提供深度學習、輕鬆部署映像檔的 GPU 運算執行處理,以及執行單一 GPU 工作站或多 GPU 資源配置叢集的彈性。
如需在高效能雲端基礎架構上建置、訓練及部署機器學習模型,請嘗試 Oracle Cloud Infrastructure 資料科學。資料科學家可在筆記本階段作業中使用 NVIDIA GPU,在不短的時間內建置及訓練深度學習模型。此外,也可以選取所需的運算和儲存資源,透過這些資源來解決任何大小的專案,而無須擔心佈建或維護基礎架構。最重要的是,OCI 資料科學藉由簡化資料科學工作 (例如資料存取、演算法選擇和模型說明) 加速模型建置。