Oracle HeatWave GenAI 透過資料庫內大型語言模型 (LLM),提供整合的自動化生成式 AI、自動化資料庫內向量儲存、橫向擴展向量處理,並支援以自然語言進行情境式對話,讓您即使不具備 AI 專長也能利用生成式 AI,不用移動資料,也不會增加額外費用。
跨雲端和區域使用資料庫內最佳化 LLM,協助擷取資料、生成內容或製作摘要,省去選取外部 LLM 和整合的麻煩。
讓 LLM 搜尋您的專屬文件,以協助取得更精確、更符合情境的答案 - 無需具備 AI 專業知識,也不需要將資料移至獨立的向量資料庫。HeatWave GenAI 會自動產生內嵌内容。
透過自然語言對話,快速洞察文件內容。HeatWave Chat 介面會記憶對話脈絡,讓後續提問過程更加自然流暢,彷彿與真人交談。
在所有 Oracle Cloud Infrastructure (OCI) 區域、OCI Dedicated Region 和跨雲端中使用經過最佳化的內建 LLM,並在各個部署中獲得一致的結果和可預測的效能。由於無需佈建 GPU,因此可降低基礎架構成本。
透過 OCI Generative AI 服務,存取來自 Cohere 和 Meta 的預訓練基礎模型。
基於 HeatWave Vector Store 中的非結構資料,使用自然語言進行情境式對話。使用整合式 Lakehouse Navigator 引導 LLM 搜尋特定文件,以降低成本,同時更快獲得更準確的結果。
HeatWave Vector Store 能將您的專屬文件儲存為各種格式,做為檢索增強生成 (RAG) 的知識庫,協助您獲得更準確、更符合情境的答案,且無需將資料移至獨立的向量資料庫。
利用自動化管道來發現和提取 HeatWave Vector Store 中的專有文件,即使不具備 AI 專業知識的開發人員和分析師也可以輕鬆地使用向量儲存區。
向量處理以記憶體頻寬執行,可平行處理多達 512 個 HeatWave 叢集節點,有助快速提供結果,同時降低準確性下降的可能性。
「有了 HeatWave GenAI,享受生成式 AI 的優勢變得輕而易舉。它支援資料庫內 LLM 和資料庫內向量建立,可大幅降低應用程式複雜性,並顯著縮短可預測的推論延遲。最重要的是,使用 LLM 或建立嵌入無需額外成本。HeatWave GenAI 真正實現了生成式 AI 的民主化。我們深信,它能幫助我們的客戶開發更豐富的應用程式,並大幅提升生產力。」
— SmarterD 執行長 Vijay Sundhar
「我們大量使用資料庫內 HeatWave AutoML,為客戶提供多樣化的建議。HeatWave 支援資料庫內 LLM 和資料庫內向量儲存區的能力獨樹一格,而整合生成式 AI 與 AutoML 的能力,更讓 HeatWave 在業界脫穎而出,也讓我們能夠為客戶提供全新類型的功能。整合 AutoML 所產生的協同效應,也改善了 LLM 結果的成效和品質。」
— EatEasy 執行長 Safarath Shafi
「HeatWave 的資料庫內 LLM、資料庫內向量儲存、橫向擴展記憶體內向量處理以及 HeatWave Chat,都是 Oracle 獨具特色的功能。這些功能實現了生成式 AI 的民主化,包括顯著提升易用性和安全性,以及大幅降低使用成本。使用 HeatWave 和 AutoML 來滿足我們的企業需求,已經在多個層面革新了我們的業務模式。隨著許多企業客戶尋求將生成式 AI 應用於自身內容,Oracle 的這項創新可能會催生一批全新類型的應用程式,以滿足這些客戶的需求。」
— Aiwifi 創辦人 Eric Aguilar
內建 LLM 和 HeatWave Chat,協助您交付可直接以自然語言進行情境式對話的應用程式。無需外部 LLM 和 GPU。
HeatWave GenAI 可協助您輕鬆與資料對話、跨文件執行相似性搜尋,並從專屬資料中擷取資訊。
提供整合式功能和自動化技術,協助開發人員和業務團隊充分發揮生成式 AI 的優勢。輕鬆實現自然語言對話和 RAG。
您可以使用資料庫內 LLM,根據非結構化文件生成內容或摘要。使用者可以在應用程式中以自然語言提問,再由 LLM 處理請求並交付內容。
使用者以自然語言提問:「請為這份解決方案簡介生成一份摘要。」大型語言模型 (LLM) 將會處理此輸入,並生成摘要做為輸出。
您可以將生成式 AI 的強大功能與其他內建的 HeatWave 功能 (例如機器學習) 結合使用,以協助降低成本,並加速獲得更準確的結果。在這個例子中,一家製造公司正在進行預測性維護。工程師可以使用 Oracle HeatWave AutoML 自動生成異常生產日誌報告,再由 HeatWave GenAI 協助快速判斷問題的根本原因。工程師只需以自然語言提問即可,無需手動分析日誌。
使用者在 HeatWave Chat中詢問:「這組日誌所揭示的最重大問題為何?請用兩句話總結。」首先,HeatWave AutoML 會根據持續擷取的所有生產日誌,生成一份經過篩選的異常日誌清單。接著,HeatWave 向量儲存區會根據日誌知識庫,向 LLM 提供額外的情境資訊。LLM 會接收這些經過增強的提示,並生成一份報告,再以自然語言提供詳盡的答案,向使用者說明問題所在。
聊天機器人可以使用 RAG 實現許多功能,像是回答員工有關公司內部政策的問題。詳述這些政策的內部文件會以內嵌方式,儲存在 HeatWave 向量儲存區中。當使用者提出查詢時,向量儲存區會對已儲存的內嵌內容執行相似性搜尋,以找出最相近的文件。這些文件將用於增強給 LLM 的提示,以生成更準確的答案。
使用者在 HeatWave Chat 中詢問:「我可以訂購哪些筆記型電腦?訂購流程是什麼?」HeatWave 會存取 HeatWave 向量儲存區中的內部政策文件,以處理這些問題。接著,HeatWave 會向 LLM 提供增強後的提示,並生成回應,例如:「這是一份核准的供應商清單,以及訂購所需的步驟」。
開發人員可以搭配使用內建機器學習、生成式 AI 和向量儲存區功能,開發出可提供個人化建議的應用程式。在此範例中,應用程式會使用 HeatWave AutoML 推薦系統,根據使用者的喜好或先前的點餐內容來推薦餐廳。應用程式還能透過 HeatWave Vector Store 搜尋 PDF 格式的餐廳菜單,並向顧客推薦合適的餐點,進一步提升服務價值。
使用者透過 HeatWave Chat 詢問:「今天有什麼素食建議?」HeatWave AutoML 推薦系統會先根據使用者的過往點餐記錄,推薦合適的餐廳清單。接著,HeatWave Vector Store 會根據內部儲存的餐廳菜單,向 LLM 送出更有效的提示。接著,LLM 會生成個人化的餐點建議,並以自然語言呈現。
相似性搜尋著重於根據語意尋找相關內容。相似性搜尋會思考內容的深層含義,而非僅搜尋已套用的標記,因而超越了簡單的關鍵字搜尋。在這個例子中,律師想要快速找出哪幾份合約包含可能有問題的條款。
律師詢問 HeatWave Chat:「我們的哪幾份合約包含這句話?」HeatWave Vector Store 執行相似性搜尋,並回應:「這句話出現在以下 6 份合約中」。
藉助 HeatWave,企業能夠在完全託管的單一雲端服務中執行交易處理、跨資料倉儲和資料湖進行分析及機器學習。今天,我們宣布正式推出 HeatWave GenAI,此解決方案具有資料庫內大型語言模型 (LLM)、自動化資料庫內向量儲存區、橫向擴展向量處理,以及用自然語言進行情境式對話的能力。
閱讀完整文章「HeatWave GenAI 擁有隨時可用的資料庫內 LLM,以及從導入第一天起就能進行向量處理的全自動向量儲存區,將 AI 的簡易性和性價比提升至競爭對手 (如 Snowflake、Google BigQuery 和 Databricks) 無法企及比擬的水準。」
「HeatWave 持續引領工程創新,朝向通用雲端資料庫的願景邁進。最新成果是遵循「HeatWave 風格」開發的生成式 AI,包括將自動化、資料庫內向量儲存區和資料庫內 LLM 直接整合至 HeatWave 核心。如此一來,開發人員不但能開發全新類型的應用程式,還能同時享有 HeatWave 的優勢。」
「HeatWave GenAI 的向量處理效能比 Snowflake 快 30 倍 ,比 Google BigQuery 快 18 倍,比 Databricks 快 15 倍,且成本最高可降至原來的六分之一。對重視高效能生成式 AI 工作負載的組織而言,將公司資源投入上述三種或其他向量資料庫產品,無異於浪費金錢,卻仍試圖證明這是個好主意。」
「HeatWave 簡化了建立向量嵌入的所有複雜流程,大幅提升了生成式 AI 和檢索增強生成 (RAG) 的可存取性。開發人員只需指向雲端物件儲存中的來源檔案,HeatWave 就會處理剩下的繁重工作。」
遵循逐步指示,並使用我們提供的程式碼,快速輕鬆地建立 HeatWave GenAI 驅動的應用程式。