動態(tài)知識從RAG到Context Engineering
RAG(檢索增強生成)曾是連接外部知識與模型能力的關鍵橋梁,但隨著業(yè)務復雜度提升,它的局限也逐漸顯現(xiàn)。Context Engineering 的出現(xiàn),正在重新定義“知識注入”的方式——從檢索到構造,從拼接到理解,讓上下文成為真正的生產力。本文將帶你梳理從 RAG 到 Context Engineering 的演進路徑,揭示背后的技術邏輯與產品思維,幫助你在構建智能應用時少踩坑、快落地。
我們在探索的一個問題是:大模型如何更好的落地企業(yè)自有的生產場景,為業(yè)務產生價值。Ai項目在完成POC概念驗證,以小成本跑通后開始啟動建設,對大模型在生產中落地應用是一般有幾個要求:
- 輸出:要求大模型穩(wěn)定輸出高準確率的結果,得出的結論有理、有據、有思考過程,有可追溯的原始數據分析過程,使用者有可反饋校準的渠道和機制;
- 分析:為了應對快速變化的市場,分析需要基于最新的實時數據、專業(yè)數據和本地專有數據來做分析決策,部分場景還需要根據使用者角色、歷史上下文來做分析;
- 數據:原始數據真實可靠,跟核心任務相關的數據源還需要盡可能的充分、全面。
同時,我們也看到目前廣泛在使用的生成式人工智能模型,有其本身的局限性:
- 訓練數據的局限性:訓練模型的數據完整性、過時的數據、數據的質量都會對模型的結果產生負面影響;
- LLM基于概率分布生成文本,而不是事實正確的文本,評測獎勵機制獎勵猜測而非誠實,對知識了解和理解有本質的差異,且一般在某些專業(yè)領域知識準備不足;
- 在生產中,我們也發(fā)現(xiàn)隨著更多的token輸入,超過一定臨界值后模型輸出的結果和準確性有明顯的降低,模型能力的局限、錯誤的提示、上下文錯誤干擾、模型對知識的組合泛化失敗等都會造成幻覺的產生。
復雜需求和大模型能力之間的Gap,如何降低Ai幻覺且提升在當前企業(yè)的應用能力,基于這些問題的考慮,我們引入了RAG(檢索-增強-生成),從RAG到Context Engineering(上下文工程)。
一、方案設計-RAG
RAG(Retrieval-Augmented Generation,檢索增強生成)干的就是這個詞組在做的事情,連接知識庫先檢索相關知識、把檢索到的相關知識作為上下文和提示詞組成一個新的內容更豐富的提示詞給到LLM,即增強提示,LLM基于新的提示詞去生成內容。我們在判斷RAG是否適用時,關鍵在應用場景下的大模型輸出是否需要參考一個動態(tài)頻繁更新的知識庫,比如依賴實時變化的背景數據、動態(tài)更新的本地知識、相關的最新的市場數據信息、政策法規(guī)等來進行分析和決策:
RAG方案結構
- 查詢優(yōu)化:在基礎的RAG方案里面,用戶查詢是可以直接被嵌入并進行檢索的,這一步是非必需的。查詢優(yōu)化的目的是用模型/大模型對用戶輸入進行意圖識別、改寫和分類,讓系統(tǒng)可以更準確的理解用戶的意圖,從而為后續(xù)檢索相關知識、輸出更高質量的分析結果打下基礎;
- 數據準備:在數據平臺整理多方數據進行清洗、分塊、生成向量,多模態(tài)數據統(tǒng)一到知識圖譜、包括一系列索引增強技術,都是在為知識準備、索引強化上投入精力,數據可能是海量的,我們必須獲取精準做到有所取舍;
- 檢索技術:比如混合搜索結合了稀疏向量相似度計算,即關鍵詞匹配,稠密向量相似度計算,即語義匹配,從而提升檢索效果,然后對檢索得到的結果進行關聯(lián)度排序,選取topN的結果給到context去組裝生成新的提示詞;
- 增強、生成:知識+優(yōu)化后的用戶查詢組裝成了新的提示詞進行增強,新的提示詞自動帶著最新的知識給到大模型,輸出結果給到用戶。
需要說明的是以上方案并非最簡化方案,企業(yè)場景一般還是以實用為主,更簡化版本也是可以跑通創(chuàng)造價值的,RAG的應用正在不斷演進,從最基礎的RAG、到具備校驗/自省的RAG、到Graph RAG,利用統(tǒng)一的知識圖譜統(tǒng)一多模態(tài)數據,以進行多模態(tài)的知識提取、實體與關系連接等,這些RAG的方案最終還是在檢索-增強-生成這個主干流程上,面向每一步分支流程做到更好,所以在生產一線,作為產品經理來說,應該優(yōu)先評估需求價值和技術實現(xiàn)成本之間取得平衡,更先進的技術往往有更大的落地成本,選擇合適的技術滿足需求,先產生業(yè)務價值再逐步迭代更新,是比較建議的做法。
二、方案設計-上下文工程
在上面第二部分著重介紹了RAG,RAG解決了最新動態(tài)知識庫如何融入大模型來解決Ai幻覺的問題,從定義上來講,Context Engineering(上下文工程)是希望通過工程設計、構建和管理輸入給大語言模型(LLM)的上下文信息(Context),以精確引導大模型生成高質量、高相關性、高準確率分析結果的工程方法,RAG可以視為Context Engineering理念具體落地的一種:
上下文工程結構
在上下文工程中,從【策略與編排器】開始的上下文組裝層是工程核心,對知識、數據的檢索、調用等輸出原始相關信息,這里面又包含從文本、關系型數據庫、音視頻文件的元數據去從底層物理存儲中提取具體的數據,通過對原始信息進行摘要、智能去重、相關性重排序,去除無效信息【上下文優(yōu)化與壓縮】,再通過【多模態(tài)上下文處理器】對多模態(tài)關聯(lián)數據進行理解、描述或轉錄,并將結果轉為文本融入上下文,最終,將所有元素——優(yōu)化后的上下文數據、推理思維方式、預設的指令模板、多模態(tài)知識內容按照最優(yōu)結構和格式,以新的提示詞組裝送給LLM,并且根據業(yè)務要求,做結構化輸出,如文本、json等。
對RAG和Context Engineering來說,在對多模態(tài)數據的處理上,尤其想介紹知識圖譜的環(huán)節(jié),通過建立統(tǒng)一的知識圖譜實現(xiàn)數據的存儲、索引和調用,我們在生產實踐中,客戶逐步想要實現(xiàn)對各個重要數據源多模態(tài)數據的處理、更深關聯(lián)的分析,這可能會是一種解法:
統(tǒng)一知識圖譜生成:
三、總結
無論是RAG或者Context Engineering,一切探索其最終目的是為了實現(xiàn)系統(tǒng)可控、可靠、高效的AI交互,將大語言模型的能力轉化為穩(wěn)定、實用的生產力,應用到生產之中。在實踐過程中,有時候總有種技術迭代日新月異,各種叫法層出不窮,亂花漸欲迷人眼的感覺,不過回歸本質來講,產品理論、工程思想在Ai時代也并未過時,希望本文也對你有幫助。
本文由@大風吹 原創(chuàng)發(fā)布于人人都是產品經理。未經許可,禁止轉載。
題圖來自 Unsplash,基于 CC0 協(xié)議
該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。提供信息存儲空間服務。
- 目前還沒評論,等你發(fā)揮!