藍色對話方塊漂浮在深藍色的背景上。細線連接部分對話方塊

利用 RAG 發揮 LLM 的完整潛力

RAG 讓組織無須重新訓練或微調,即可根據自己的資料自訂 LLM,以迅速、符合成本效益的方式部署量身打造的 LLM 應用。

重點精華

  • RAG 是一款 AI 架構,讓模型存取訓練中未包含的資料,協助 LLM 提供更準確、更相關的回應。

  • 在企業環境中,RAG 讓組織無需重新訓練或微調,即可根據專有的資料自訂 LLM。

  • RAG 將 LLM 連接至儲存在本機或私人資料中心的專有知識庫。這種切實的作法可讓企業在不斷注入新資料的同時確保資料安全。

  • RAG 讓組織無需微調,就能以更迅速且符合成本效益的方式自訂及推出生成式 AI 應用。

什麼是 RAG?

聊天機器人等大型語言模型(LLM)可以快速翻譯語言、以人性化的回應回答客戶問題,甚至能產生程式碼。然而,LLM 只熟悉訓練中遇到的資訊。為了有效因應日新月異的專業知識領域(例如深入瞭解業務和客戶),LLM 必須接觸最新的資料。雖然重新訓練或微調也是一種選項,但過程可能要耗費額外的時間和成本。即使如此,LLM 也可能會產生錯誤的回應。

日益受歡迎的 AI 架構 RAG,協助 LLM 提供更準確、更相關的 AI 回應。RAG 利用外部知識庫的資料補充 LLM,確保 LLM 能存取最可靠、最即時的資訊。這些額外資料有助於 LLM 提供最新且具有情境意義的回應。

在企業環境中,RAG 為組織提供符合成本效益的生成式 AI 方法。現成的 LLM(稱為基礎 LLM)經過訓練,可因應各種主題。然而,它們通常需要根據組織的資料量身打造,才能產生業務特定的結果。RAG 讓組織無須重新訓練或微調,即可將自己的資料注入 LLM,降低進入特定領域、實際使用案例的門檻。

舉例來說,貴組織可讓員工使用搭載 RAG 的聊天機器人,協助提升生產力。若要協助規劃假期,您可以詢問聊天機器人在今年剩餘的時間您還有幾天假。聊天機器人會搜尋內部資料庫,以取得相關資訊、查看公司的假期政策,以及您已用了幾天假,來得出可以請假的天數。

未使用組織記錄訓練的基礎 LLM 不但無法提供答案,更糟的是,可能充滿信心地提供錯誤的答案。為了讓基礎模型有效回答問題,每次有人休假時,您都必須根據公司的資料微調。

RAG 有什麼助益?

將 RAG 整合至生成式 AI 應用能帶來眾多助益。

  • 符合成本效益的微調替代方案:在許多情況下,RAG 可讓組織根據自己的領域和資料自訂 LLM,而所需的時間和成本相較於重新訓練或微調模型根本微乎其微。這創造了更短的生成式 AI 模型途徑,可向員工和客戶提供相關且有意義的 AI 成果。
  • 更可靠的結果:專家估計,全球最受歡迎的 LLM 產生錯誤輸出(或「幻覺」)的機率為 2% 至 22%。1 RAG 透過為 LLM 提供可靠的知識來源的額外背景,協助提升 LLM 準確性並減少幻覺。RAG 也可以提供來源引用,讓使用者進一步查核事實及研究主題。
  • 即時深入解析:企業可使用 RAG,持續向模型注入新資料,確保 LLM 隨時掌握變化多端的主題。採用 RAG 的模型甚至可以直接連結至網站和社群媒體消息等來源,以近乎即時的資訊產生答案。
  • 增強資料隱私:由於外部知識庫可在本機或私人資料中心儲存,因此 RAG 無需和第三方 LLM 共享機密資料。組織可以自訂及部署模型,同時確保資料安全。

RAG 如何運作?

傳統 LLM 使用大量網際網路資料(包括文章、影片轉錄內容和聊天論壇)來訓練。RAG 系統新增檢索機制,在回答提示前,先從量身打造的知識庫交叉引用資訊。額外資訊可強化 LLM 的訓練,進而提供更符合使用者或組織需求的答案。

啟用 RAG 式 LLM 解決方案的第一步是建構知識庫。這種私人資料收集可包括各種文字來源,例如公司手冊和產品簡介。您必須執行一些工作,為高效處理準備資料,包括清理資料(例如移除重複的資訊,以及將資料拆成好管理的細項)。然後,稱為嵌入模型的一款專門 AI 模型會將文字轉為向量(以數學表示文字),藉此擷取上下文和文字之間的關係。向量儲存於向量資料庫,以便快速檢索。

使用者或子系統提交查詢時,查詢會透過工作流程的核心元件(檢索機制)傳遞。這套機制會在向量資料庫搜尋相關配對,並與 LLM 共享最息息相關的資料作為額外情境。

之後,LLM 會將訓練與外部資料結合,產生最終回應,確保使用者收到合乎情境且有意義的答案。

閱讀我們如何實作 RAG 的文章,深入瞭解這些步驟。

人們如何使用 RAG?

各行各業的組織都在使用 RAG 提升員工生產力、提供個人化體驗,並降低營運成本。

以下是幾個 RAG 翻轉產業的實例。

 

  • 個人化購物體驗:採用 RAG 的零售推薦系統可以從搜尋引擎和 X(前身為 Twitter)等來源收集即時客戶喜好與市場趨勢。如此一來,零售商就能向每位購物者提供即時且個人化的產品建議。閱讀詳細資料
  • 預測性製造維護:採用 RAG 的異常偵測系統利用歷史效能資料、設備特定的資料與即時感應器資料,可在最早出現故障跡象時偵測設備異常,讓製造商在潛在問題導致停機前先下手為強。深入瞭解複雜機械,能使 RAG 系統偵測到設備速度和精確度的細微變化,而這往往是傳統系統經常遺漏的細節。閱讀詳細資料
  • 金融服務業的 AI 助理:採用 RAG 的聊天機器人可綜合複雜的即時市場趨勢和法規,為使用者提供及時、量身打造且可據以行動的財務建議。這些功能強大的 AI 助理協助金融機構為廣大客群提供量身打造的建議,同時遵循不斷演變的法規。閱讀詳細資料

在 RAG 旅程中邁出下一步

在您試圖把握生成式 AI 和 LLM 帶來的價值與機會時,RAG 可提供一條比微調快捷的途徑來自訂 LLM 應用。進一步瞭解 RAG 管道,並探索可簡化實作流程的工具。

與 Intel 合作建構 RAG 模組詳細瞭解 RAG 管道的關鍵要素。

如何實作 RAG取得整個 RAG 管道的 Intel® 軟硬體建議。

Intel Tiber™ 開發者雲端在 Intel® 軟硬體上測試 RAG 管道的重要面向。

常見問題集 (FAQ)

常見問題集

RAG 是一種在聊天機器人等應用中最佳化大型語言模型(LLM)的技術。採用 RAG 的模型使用檢索機制從外部知識庫提取資料,讓 LLM 取得最新、最準確的資訊。之後,LLM 會使用這些額外的資訊,提供更相關、更有意義的回應。

LLM 驅動的聊天機器人等生成式 AI 技術協助推動產業變革。然而,許多現成的 LLM 雖然適合通用使用案例,但必須根據組織的資料量身打造,才能產生合乎情境的準確結果。RAG 讓組織無需重新訓練或微調模型,即可根據自己的資料開發 LLM,創造了一條通往生成式 AI 的捷徑。

LLM 面臨了產生錯誤輸出的風險,一般稱為幻覺。RAG 將外部資料注入 LLM,提升可靠性和準確度。在企業環境中,RAG 讓組織根據自己的資料建立 LLM,打造出比重新訓練或微調更符合成本效益的自訂 AI 方法。