掌握生成式 AI 的轉捩點
到 2026 年,百分之八十的企業會使用生成式 AI。1 別讓您的組織掉隊,把握彎道,搶佔這項新興技術所帶來的價值與機會。所有 AI 計畫的核心是模型本身。企業組織需要以快速、符合成本效益的方式啟用適合業務的獨特 AI 功能。
企業組織目前主要仰賴兩種方法來啟用自訂生成式 AI 功能。首先,可以選擇透過進一步訓練來微調通用基礎模型。或者實施檢索增強生成(RAG)技術,透過將基礎模型與特定資料集連結來促進自訂輸出。
檢索增強生成 vs. 模型微調
RAG 和微調都可以加速自訂 AI 功能的過程,但方式有所不同。
在模型微調中,組織利用獨特的資料集來完善現成模型。基礎模型則提供起點,代表團隊能省下從頭建置模型的時間與資料。微調的處理需求則低於從頭訓練,因此可能無需巨量運算(例如 GPU 叢集)來微調所選的基礎模型。
另一方面,RAG 可將模型與您獨特的專有資料庫中的相關資料連結,取得以及分析組織專屬即時資訊。這些額外的脈絡會影響最終的輸出,且就像微調一樣能產生符合企業組織所需的明確特定結果。關鍵在於,模型在 RAG 範例中並不會進行微調或進一步訓練。而是透過檢索機制連結至所需的知識庫。
兩種方法各有獨特優勢。相較於微調,RAG 實作可以在較精簡的硬體上達成高效成果。RAG 還能降低幻覺風險,提供輸出來源提升可解釋性,更因為敏感資訊安全保存在私有資料庫中,可帶來安全優勢。
需要注意的是,兩種方法也可以結合使用。如需 RAG 有關詳情,請查閱下列指南:
探索通用基礎模型
RAG 和模型微調都仰賴基礎模型作為核心要素。企業可使用的現成基礎模型不斷增加,以下六種代表了當今最強大、最受歡迎的產品:
- Technology Innovation Institute(TII)Falcon LLM
- MosaicML MPT
- Hugging Face BLOOM
- Stability AI Stable Diffusion
- Databricks 的 Dolly
- Meta AI Llama 3
- Mistral AI 模型
選擇上述基礎模型作為企業生成式 AI 解決方案的基礎,可大幅加速組織 AI 投資實現價值。
選擇模型必然是複雜的過程,取決於您的需求以及業務現實。實際操作實驗是熟悉上述現成產品的好方法。六種模型均可透過 Intel® Tiber™ 開發者雲端供團隊評估。
硬體建議
一般來說,自訂現成模型所需的運算能力較從頭訓練模型低。您可以根據需求使用組織現有的通用硬體執行所需的工作負載。或者,也可以選擇專門的 AI 硬體來處理要求嚴苛的工作負載。就 RAG 而言,您可能會根據輸送量或延遲需求選擇不同硬體。Intel 提供滿足各種自訂需求的加速 AI 硬體:
- 大規模專用 AI 微調(< 1T 參數)以及高輸送量、低延遲 RAG:Intel® Gaudi® AI 加速器
- 通用微調(< 10B 參數)與一般 RAG 應用:內建 AI 引擎的 Intel® Xeon® 處理器
最新的 Intel® Xeon® 處理器和 Intel® Gaudi® AI 加速器在部署微調模型提供最佳化部署平台,實現符合成本效益的推斷。
您與團隊可以透過 Intel® Tiber™ 開發者雲端,在各種硬體類型上測試 AI 管道效能。
軟體工具
無論選擇何種自訂方法,軟體工具和開發資源都是開發和部署過程中不可或缺的部分。少了適當的工具,可能會遇上開發時間過長以及部署問題,處理異質硬體時更是尤為嚴重。
為了協助您克服這些挑戰,Intel 提供了端對端 AI 開發產品組合。我們的資源和工具集能協助您建構、擴充及部署,實現最佳化成果。
例如最佳化的 PyTorch 資料庫讓您僅需幾行程式碼,即可充分利用最新的 Intel® 軟硬體 PyTorch 最佳化。
利用 RAG 方法進行自訂時,LongChain、LLamaIndex 與 IntelLab 的 fastRAG 等整合式 RAG 框架可簡化、加速您的工作流程。RAG 架構可讓您在整個管道中整合 AI 工具鏈,並提供實際使用案例的範本解決方案。
Intel 提供最佳化,協助在 Intel® 硬體上發揮最大整體管道效能。例如,fastRAG 能整合 Intel® Extension for PyTorch 和 Optimum Habana,最佳化 Intel® Xeon® 處理器和 Intel® Gaudi® AI 加速器上的 RAG 應用。
同時,OpenVINO™ 工具組在部署中扮演了關鍵角色。這項開放原始碼工具組可加速 AI 推斷,實現更低的延遲和更高的輸送量,同時維持準確性、減少模型佔用空間,以及最佳化硬體使用率。工具組簡化了生成式 AI、電腦視覺和大型語言模型的 AI 開發與深度學習整合。
我們為 RAG 應用程式提供多種最佳化資料庫,協助您在硬體資源上將大型語言模型推斷發揮到極致。我們的 Intel® oneAPI 資料庫提供針對 PyTorch 及 TensorFlow 等常用 AI 模型的低層級最佳化,讓您使用 Intel® 硬體上最佳化的開放原始碼工具。
您可以透過 Intel® Tiber™ 開發者雲端試用本文重點介紹的 Intel® 軟體資源及其他更多選擇。
還能夠查詢我們的生成式 AI 開發頁面,取得為您生成式 AI 專案量身打造的資源。
簡化企業 AI 之旅
將生成式 AI 計畫從模型自訂和概念驗證推進到部署階段時,可以利用 Intel 與我們全球夥伴生態系統的工具以及技術,協助您最佳化效率並且加速創新。
選擇 Intel 作為 AI 平台讓您發揮現有基礎架設的最大價值,同時確保未來成功所需的開放性與互通性。我們對可靠性與管理性的投資有助於提供整個管道更順暢、更簡易的 AI 操作。我們的開放平台以及高效能、低總體擁有成本硬體可讓您進行靈活、高效的部署,實現大規模生成式 AI 的需求。
身為 Linux 基金會企業 AI 開放平台的一份子,我們致力於開發高效整合生成式 AI 技術與工作流程的生態系統整合協調架構,促進快速採用,並通過合作開發提升商業價值。我們目前的貢獻包括一系列生成式 AI 架構,有助於加速您的專案:
立即開始利用 Intel 技術自訂生成式 AI 模型
生成式 AI 將翻轉製造、醫療保健、零售等各行各業的企業組織。
在您設法實現組織和 AI 應用程式所需的獨特 AI 功能時,微調和 RAG 助您加速產品上市、提高投資報酬率。利用目前的主流基礎模型以及專門為此打造的 Intel® AI Portfolio,您便能為組織精簡、簡化以及加速生成式 AI 的成功。