AI產(chǎn)品經(jīng)理必修課:RAG(終)
RAG,不只是技術(shù)架構(gòu),更是一種產(chǎn)品思維。從“檢索增強”到“生成協(xié)同”,它連接的是知識系統(tǒng)與用戶體驗的雙重躍遷。但很多產(chǎn)品經(jīng)理只看到了“能搜能答”,卻忽略了背后的數(shù)據(jù)治理、提示詞策略與系統(tǒng)設(shè)計。
作為系列終篇,本文將從產(chǎn)品視角拆解 RAG 的底層邏輯與落地路徑,幫助你真正把它用成“認知引擎”,而不是“搜索外掛”。
1. 引言
從RAG的本質(zhì)和RAG Pipeline的編排展開,把不使用RAG的壞處、使用RAG的好處、RAG系統(tǒng)里各個環(huán)節(jié)的思考。
- RAG的本質(zhì):知識檢索與語言生成,二者的解耦再重新編排。
- RAGpipeline的編排:從離線知識庫的構(gòu)建,到在線檢索增強生成的每一步。
2. 檢索與生成的解耦
從一個不可分的、隱含在同一大模型的內(nèi)部過程,拆分為兩個各自可獨立優(yōu)化的模塊。被解開的耦合不僅是檢索功能和生成功能,更在于它帶來的知識更新與模型訓(xùn)練的分離。
2.1 不使用RAG的壞處
在不使用 RAG 的情況下,大模型需要將所有知識都存儲在模型參數(shù)中。而知識更新的速度遠高于模型訓(xùn)練,可能以小時甚至分鐘級變化。如果每次知識更新都要重新訓(xùn)練模型,那成本就太高了,而且還可能引入新的問題。
a)訓(xùn)練周期長和訓(xùn)練成本高:每次知識更新都可能需要對整個大模型進行重新訓(xùn)練或微調(diào),這是一個耗時且昂貴的過程。RAG 通過將知識存儲在外部知識庫中,避免了頻繁的重新訓(xùn)練,只需要大語言模型通過特定的檢索機制 (例如,基于語義相似度的向量檢索) 從知識庫中按需獲取相關(guān)信息,從而降低了成本。
b)數(shù)據(jù)合規(guī)性和引入新噪聲: 新數(shù)據(jù)可能包含不合規(guī)內(nèi)容或噪聲,直接用于訓(xùn)練會將這些問題固化在模型參數(shù)中。RAG 允許對外部知識庫進行更嚴格的質(zhì)量控制和合規(guī)性審查,從而降低了風(fēng)險。
2.2 使用 RAG 的好處
在使用 RAG 的情況下,知識更新無需頻繁改變模型參數(shù),知識直接存儲在外部知識庫,會帶來這些好處:
a)減少資源的消耗:模型通常會將知識直接編碼到模型的參數(shù)中,知識越多,參數(shù)越多,計算量越大,就需要更多計算資源來進行部署和推理 (在部署時,需要大量的內(nèi)存來加載模型參數(shù),就需要高性能服務(wù)器和 GPU;在推理時,模型需要對每個參數(shù)進行計算,相應(yīng)基礎(chǔ)設(shè)施的調(diào)度會消耗大量電力)。
b)知識管理更靈活:輕松地添加、刪除或修改知識庫中的信息,而無需更改或重新訓(xùn)練大語言模型。這使得系統(tǒng)更容易適應(yīng)不斷變化的知識需求,例如,可以快速地添加最新的行業(yè)報告、法規(guī)更新或產(chǎn)品信息,確保模型始終提供最準確和最新的答案。
c)信息的可追溯性:大語言模型被認為是黑盒,因為很難理解它為什么會做出這樣的回答,這使得它在醫(yī)療、金融、法律的關(guān)鍵應(yīng)用中的應(yīng)用受到限制。通過 RAG 可以追蹤模型在生成答案的知識來源,驗證模型是否使用了可靠的信息,為人類的決策提供具體依據(jù)。
★ 3. Rag pipeline的編排
(總的來說分為:離線知識庫的構(gòu)建+在線檢索增強生成)
a)數(shù)據(jù)收集:從各種數(shù)據(jù)源獲取原始數(shù)據(jù),并對數(shù)據(jù)進行預(yù)處理,涉及不同類型數(shù)據(jù)的解析策略 (word、pdf、ppt、跨頁表格)。
b)數(shù)據(jù)分塊:將長文檔切割成語義相對完整的文本塊 (Chunk),涉及不同類型數(shù)據(jù)的分塊策略 (比如結(jié)構(gòu)化數(shù)據(jù)與非結(jié)構(gòu)化數(shù)據(jù)、長文段與短文段)。
c)向量嵌入:將上一步的文本塊轉(zhuǎn)換為向量。需要用向量嵌入模型 (Embedding Model) 將文本信息嵌入到向量空間中,涉及模型的選型。
d)存儲與索引:將上一步的向量化的文本塊存儲進向量數(shù)據(jù)庫中 (存儲),并將文本塊按照一定規(guī)則排列好 (創(chuàng)建索引),便于查詢時快速檢索,涉及索引結(jié)構(gòu)的選擇 (摘要索引、樹狀索引、知識圖譜、向量索引)。
注意:使用向量索引時,無論是離線文本的向量化,還是在線的用戶查詢的編碼,都必須使用同一個向量模型,保證它們編碼在同一個向量空間。
e)檢索與重排:系統(tǒng)收到用戶查詢 (query) 后將其向量化,并在數(shù)據(jù)空中進行相似度檢索,得到大量相關(guān)的文本塊并進行排序,找出與查詢語義最相關(guān)的 Top-K 的文本塊 (比如 Top-3 就相關(guān)性前三的資料) 作為參考。
f)答案生成:模型仔細閱讀用戶查詢和參考資料,依據(jù)提示詞生成一個有依據(jù)的回答,涉及增強提示詞的設(shè)計。
注意:返回給用戶之前需要進行后處理,保證生成答案的美觀度和可信度,同時過濾掉不必要的信息。
雖然向量嵌入主要在數(shù)據(jù)存儲時使用,但在檢索重排時也會涉及。只是為了方便讀者理解,在前文將向量嵌入單獨作為一步進行說明,接下來將其合并為:數(shù)據(jù)收集→數(shù)據(jù)分塊→創(chuàng)建索引→檢索重排→答案生成。
3.1 數(shù)據(jù)收集
對文檔進行搬運(不同類型的文檔解析方式不同),并用模型進行預(yù)處理 (打標簽、生成摘要),優(yōu)質(zhì)的數(shù)據(jù)收集需要滿足以下特點:
a)內(nèi)容完整:不能漏掉任何有價值的信息,包括文字、圖片、表格等。
b)內(nèi)容準確:提取內(nèi)容不能有錯誤,比如 OCR 識別出來的文本,就要盡可能地避免識別錯誤。
c)關(guān)系完整:數(shù)據(jù)內(nèi)部存在關(guān)聯(lián)性,比如主干段落與分支段落的層級關(guān)系、圖片與圖片說明的對應(yīng)關(guān)系,能夠幫助 RAG 系統(tǒng)更好地理解數(shù)據(jù)。
d)元數(shù)據(jù)完整:元數(shù)據(jù)就是數(shù)據(jù)的數(shù)據(jù),數(shù)據(jù)本身具有標題、標簽、大小、生成時間等信息,能夠幫助 RAG 系統(tǒng)更好地管理和利用數(shù)據(jù)。
Word 解析方案
a)文本信息解析:使用”python-docx”庫對”.doc”文檔進行解析,提取出保留結(jié)構(gòu)層級的信息(標題、正文、編號、列表等)
# ChatGPT 使用說明
## 簡介
ChatGPT 是一個大型語言模型,由 OpenAI 訓(xùn)練,它可以用于各種自然語言處理任務(wù)。
(解析前)
<h1>ChatGPT 使用說明</h1>
<h2>簡介</h2>
<p>ChatGPT 是一個大型語言模型,由 OpenAI 訓(xùn)練,它可以用于各種自然語言處理任務(wù)。</p>
(解析后)
b)圖片標簽生成:將 word 里的圖片導(dǎo)出到指定文件夾 (image_folder),建立映射字典 (image_map) 表示 key 和 value 的關(guān)系(key 就是圖片的身份證號,value 就是圖片的身份證信息,包含圖片路徑 scr 和文字說明 alt)
比如:<img src=”image_folder/image1.png” alt=”Image 1 Description”>
- img=嘿,這里有一張圖片
- scr=它的位置在image_folder/image1.png
- alt=如果圖片加載不出來,就顯示Image1Description這段文字
c)圖文內(nèi)容整合:將文本內(nèi)容和圖片標簽按照原文檔的順序組合成一個完整的 HTML 字符串。
若檢測到圖片引用 ID (例如 “image123″)。
在 image_map 中查找這個 ID 作為 Key。
image_map 返回對應(yīng)的 Value。
將這個 HTML 標簽插入到最終生成的 HTML 文檔中。
d)HTML文檔導(dǎo)出:輸出包含富文本結(jié)構(gòu)的 HMTL 內(nèi)容塊,它的標準化結(jié)構(gòu)和易于渲染的特性,方便了后續(xù)的分塊、向量化、檢索。
- 文檔分塊:在RAG文檔預(yù)處理時,HTML格式便于將文檔內(nèi)容結(jié)構(gòu)化地分割成更小的塊。
- 檢索展示:在展示檢索內(nèi)容時,將檢索結(jié)果高亮顯示,將插圖還原,會更加的簡單和可靠。
# ChatGPT 使用說明
## 簡介
ChatGPT 是一個大型語言模型,由 OpenAI 訓(xùn)練。 它可以用于各種自然語言處理任務(wù),例如:
– 文本生成
– 機器翻譯
– 問答
[圖片ID: chatgpt_architecture]
(解析前)
<h1>ChatGPT 使用說明</h1>
<h2>簡介</h2>
<p>ChatGPT 是一個大型語言模型,由 OpenAI 訓(xùn)練。 它可以用于各種自然語言處理任務(wù),例如:</p>
<ul>
<li>文本生成</li>
<li>機器翻譯</li>
<li>問答</li
</ul>
<img src=’images/chatgpt_architecture.png’ alt=’ChatGPT 架構(gòu)圖’ title=’ChatGPT 內(nèi)部結(jié)構(gòu)’>
(解析后)
PDF 解析方案:
Word、HTML、Markdown 是結(jié)構(gòu)化文檔,內(nèi)部帶有結(jié)構(gòu)化標簽,例如段落、列表、表格等,這些標簽如同文檔的”骨架”,方便計算機直接解析和理解。而 PDF 的設(shè)計初衷是為了在不同設(shè)備上完美展示文檔,內(nèi)容以頁面流的形式呈現(xiàn),缺乏內(nèi)在的語義結(jié)構(gòu)信息,是按照坐標進行繪制的,大大增加了提取難度。
PDF文檔中的文本在提取出來時,排版是混亂的,不具有可讀性。需要根據(jù)字符坐標 (x 和 y)、排版特征 (頁碼、字體、粗細、行間距)、結(jié)構(gòu)信息 (標題、正文、編號、列表),像拼圖一樣,把這些碎片重新組合成完整的富文本結(jié)構(gòu)的段落。
a)文本提取:使用工具 pdfplumber 和 PyMuPDF,或 OCR 解析PDF文件,為后續(xù)文本重組做鋪墊。
文本內(nèi)容:”
1. Introduction”
位置坐標:(100, 50)
字體大?。?4pt
字體:Arial
加粗:True
結(jié)構(gòu):一級標題
b)文本重組:基于字符坐標、排版特征、結(jié)構(gòu)信息,重建包含標題、正文、序號等結(jié)構(gòu)的頁面。
c)修復(fù)錯誤:在重新組織文本時,容易出現(xiàn)換行錯誤(一段話被錯誤地分成兩行),這是由于坐標精度不足導(dǎo)致的字符位置關(guān)系不確定(公式、表格、特殊符號、字體的變化等,會導(dǎo)致字符間距變小,程序識別精度不夠,可能會認為是字符重疊的),進而采取”強制換行“和”插入空格“這樣最常見、也最保守的策略。
d)圖片標簽生成
e)圖文內(nèi)容整合
f)HTML文檔導(dǎo)出
3.2 數(shù)據(jù)分塊 (chunk)
文本分塊是自然語言處理 (NLP) 中的一項關(guān)鍵技術(shù),其作用是將較長的文本切割成更小、更易于處理的片段。
為什么需要對文檔進行分塊?而不是直接進入下一步,提取文檔的嵌入向量。
分塊過大: 降低檢索精度,增加計算成本,易超出模型上下文窗口導(dǎo)致信息截斷。分塊過?。?造成上下文缺失(如論點論據(jù)分離、數(shù)據(jù)分析脫節(jié)),影響模型對信息的完整理解。
分塊大小需要考慮幾個維度:
a) 數(shù)據(jù)本身的結(jié)構(gòu)特點:學(xué)術(shù)論文需要長段的完整的分塊,視頻文案天然適合較短的分塊。
b)用戶提問的長度和復(fù)雜性:用戶輸入的文段長度和問題的復(fù)雜程度,影響結(jié)果需要參考的上下文長度。
c)Embedding 模型的適配:不同的嵌入模型,對文本塊顆粒度的適應(yīng)性不同,影響檢索的效果。
d)計算成本和響應(yīng)時間:分塊越大,意味著生成內(nèi)容時發(fā)給 LLM 的內(nèi)容越多,成本和延遲都會增加。
Token 切片 (滑動窗口)
滑動窗口是實現(xiàn) Token 切片的一種常見方式,你可以把它想象成一個在文本序列上滑動的尺子,它有固定的長度 (chunk_size),每次滑動一定的距離,就從尺子框住的頭和尾切下一塊。
- chunk_size:每個文本塊塊包含多少Token(尺子的長度)。
- chunk_overlap:相鄰小塊之間重疊多少個Token(尺子滑動前后的重疊部分)。
舉個例子,假設(shè)我們有一段文本:
[A、B、C、D、E、F、G、H、I、J、K、L、M、N、O、P、Q、R、S、T、U、V、W、X、Y、Z]
如果我們設(shè)置 chunk_size = 5,chunk_overlap= 2,那么切出來的效果就是:
切片 1: [A, B, C, D, E]
切片 2: [D, E, F, G, H]
切片 3: [G, H, I, J, K]
分塊時使用配套的分詞器 (Tokenizer) 可以確保分詞方式與模型訓(xùn)練時使用的方式一致,從而獲得最佳性能。LLM 模型的官方文檔會明確指出推薦使用的 Tokenizer,或者有自己的 Tokenizer (例如 BERT、GPT 有自己專門的 Tokenizer,與模型一起發(fā)布)。同時,也需要考慮語言和任務(wù),在 Hugging Face Transformers 庫中尋找合適的分詞器,并進行效果評估。
一句話總結(jié):Token 切片是目標,就像我們要把蛋糕切成小塊;滑動窗口是手段,就像切蛋糕的刀,決定了怎么切、切多大。它的特點是簡單粗暴,但是也容易破壞語義完整性。
句子切片
使用正則表達式識別中文標點符號(句號、問號、感嘆號等)是一種簡單直接的中文文本分句方法,雖然不如語義切片精確,但足以滿足基本需求。
遞歸分割
遞歸分割按照預(yù)設(shè)的優(yōu)先級順序 (段落分隔符/兩個換行符 → 換行符 → 句子分隔符 → 空格),依次嘗試使用這些分隔符將文本分割成更小的塊,直到文本塊的大小都滿足預(yù)設(shè)的限制。就像一個要減肥的人吃蛋糕,一次不能吃太多,不然卡路里超標。先切一大塊,發(fā)現(xiàn)切多了,熱量高了,就再補一刀,直到大小合適,熱量正常為止。
-最高優(yōu)先級:按照段落 (兩個換行符/單個換行符) 切割。
-再次:按照句子分隔符 (句號、問號、感嘆號) 切割。
-接著:按照空格切割 (盡量保證單詞完整)。
-最低優(yōu)先級:如果以上方法都不行,就強制按照字符切割 (最壞的情況)。
專門分塊(數(shù)據(jù)本身有特定規(guī)則)
根據(jù) Markdown 語法規(guī)則(標題、加粗、代碼塊等)進行分塊。
根據(jù) LaTeX 命令(如 \section, \subsection)來創(chuàng)建邏輯塊,如章節(jié)和小節(jié)。
語義切片
通過 LLM 理解語義后,依據(jù)上下文精準靈活地進行分割。切片的精度高,但計算成本也高。
滑動窗口+語義切片
語義切分優(yōu)先 (首先將文本分割成具有完整語義的塊),超過限制的塊用滑動窗口 (如果語義塊仍然過大超出 token 限制,則對該塊使用滑動窗口切分)。
a)大模型理解語義:將原始文本切分成語義段落 (例如,有”原始語義段落 1″和”原始語義段落 2″)。
b)判斷每個段落的大?。?/strong>如果段落大小合適 (比如 ≤50 tokens),則直接采納。
c)滑動窗口并進行切片:針對過長段落進行 token 切片,生成含重疊的子切塊。
舉個例子,原始段落如下:
“RAG 框架是一種將檢索和生成相結(jié)合的技術(shù)。它首先從大規(guī)模知識庫中檢索相關(guān)信息,然后利用這些信息來生成更準確、更有針對性的回復(fù)。與傳統(tǒng)的生成式模型相比,RAG 框架能夠顯著提升生成內(nèi)容的質(zhì)量和可信度。本段主要介紹 RAG 的基本概念和優(yōu)勢。要搭建一個基于 RAG 框架的智能客服,你需要準備以下幾個關(guān)鍵組件?!?/p>
a)大模型語義理解
原始語義段落1:”RAG 框架是一種將檢索和生成相結(jié)合的技術(shù)。它首先從大規(guī)模知識庫中檢索相關(guān)信息,然后利用這些信息來生成更準確、更有針對性的回復(fù)。”
原始語義段落2:”與傳統(tǒng)的生成式模型相比,RAG 框架能夠顯著提升生成內(nèi)容的質(zhì)量和可信度。本段主要介紹 RAG 的基本概念和優(yōu)勢。要搭建一個基于 RAG 框架的智能客服,你需要準備以下幾個關(guān)鍵組件。”
b)判斷每個段落的大小
原始語義段落1: 45 個 token,小于 50 token 的閾值,因此直接采納。
原始語義段落2: 70 個 token,大于 50 token 的閾值,需要進一步切分。
c)滑動窗口并進行切片(含重疊部分)
子切塊2.1:”與傳統(tǒng)的生成式模型相比,RAG 框架能夠顯著提升生成內(nèi)容的質(zhì)量和可信度。本段主要介紹 RAG 的基本概念和優(yōu)勢。”
子切塊2.2:”本段主要介紹 RAG 的基本概念和優(yōu)勢。要搭建一個基于 RAG 框架的智能客服。你需要準備以下幾個關(guān)鍵組件。”
普通分塊的問題在于,直接切分可能會破壞語義的完整性,但如果整個文檔太大,又會超出 token 數(shù)量的限制。而滑動窗口+語義切片的優(yōu)勢就在于,既能保證語義完整性,又不會讓單個文本塊過大:先做語義切分 (保證語義完整性),若語義切分后的塊還是很大,超出token限制,再對這個塊做滑動窗口切分 (解決chunk大小問題)。
分塊策略的選擇a)先結(jié)構(gòu)化后語義
面對 word、ppt、markdown 這種結(jié)構(gòu)化的文檔,優(yōu)先采用專門切塊,按照目錄/章節(jié)/列表的格式進行切片,再視情況而定是否要追加語義切片。可以最大化的保留文檔的語義,結(jié)構(gòu)化部分也可作為檢索特征。
b)非結(jié)構(gòu)化就語義
面對小說、散文、哲學(xué)這種典型的結(jié)構(gòu)化文檔,就需要采用語義切塊??梢员苊庹握Z義的分割,便于模型理解抽象概念。
工作流:
– 句子級拆分:將文檔按句子進行劃分。
– 組塊構(gòu)建:連續(xù)多個句子組合成一個“句子組”。
– 語義嵌入生成:使用指定嵌入模型為每個句子組,生成向量表示。
– 語義相似度計算:通過余弦距離衡量相鄰句子組之間的語義差異。
– 動態(tài)切分決策:當(dāng)語義差異超過設(shè)定的閾值,則在此處進行切分。
c)窗口重疊來補救
token 切片和遞歸切片,這種固定規(guī)則的切片方式,容易破壞語義結(jié)構(gòu),有時需要采用窗口重疊來補充上下文。重疊比例一般在 10%-20%之間,寧愿多消耗算力,也要保證語義信息的完整。
3.3 創(chuàng)建索引
索引是檢索增強 LLM 中的一個核心組件,用于組織和存儲向量化后的文本內(nèi)容 (chunk),以便用戶能夠快速找到所需的信息。簡單來說,它就像書的目錄一樣,可以幫助你快速定位到書中的相關(guān)章節(jié)。
以下是幾種常見的索引結(jié)構(gòu):
a)摘要索引:將節(jié)點按照順序鏈接起來。檢索時,可以順序遍歷所有節(jié)點或根據(jù)關(guān)鍵詞進行過濾。
b)樹索引:將節(jié)點組織成樹狀結(jié)構(gòu),檢索時可以從根節(jié)點向下遍歷,也可以直接利用根節(jié)點的信息。
c)關(guān)鍵詞表索引:從每個節(jié)點中提取關(guān)鍵詞,并建立關(guān)鍵詞與節(jié)點的多對多映射關(guān)系。適用于查找包含特定關(guān)鍵詞的文檔,但在處理多關(guān)鍵字查詢時效率較低 (過于復(fù)雜)。
d)向量索引:使用文本嵌入模型將文本塊轉(zhuǎn)換為固定長度的向量,并存儲在向量數(shù)據(jù)庫中。檢索時,將用戶查詢文本也轉(zhuǎn)換為向量,并通過向量相似度計算來查找最相似的節(jié)點 (這是目前最流行的方法)。
e)知識圖譜索引:知識圖譜是不同知識之間的關(guān)系圖。
f)多層表示索引:通過創(chuàng)建多個向量來表示每個文檔,例如:
- 多向量檢索器(multi-vectorretriever):把每個文檔先提煉成簡短的摘要,并將摘要轉(zhuǎn)成向量用于語義檢索;檢索命中后,不返回摘要本身,而是將對應(yīng)的完整原文檔交給LLM生成答案。
- 父文檔檢索器(parent-docretriever):先把文檔切成較小的塊,并對這些塊進行向量化檢索;檢索命中后,返回這一小塊和它的父塊(這樣上下文更豐富)給LLM生成答案。
通過較小的表示(摘要或塊)進行檢索,但將它們鏈接到完整的文檔/上下文中進行生成,核心思想是在保證檢索效率的同時,盡可能提供完整的上下文信息。
3.4 檢索重排
傳統(tǒng)的搜索技術(shù),要么因為過于依賴關(guān)鍵詞而忽略了用戶的真實意圖,要么就是因為信息處理能力有限而遺漏了關(guān)鍵信息。而在RAG中需要檢索相關(guān)資料作為上下文,發(fā)給大模型。但是,如果一股腦地把Top50 的資料都塞給大模型,顯然會帶來一些問題 (token 消耗過大、模型受窗口限制無法讀取全文)。
所以,在向量查詢 (ANN) 后,通常使用 Rerank模型 進行重排序,精選 TOP5 甚至 TOP3 的相關(guān)資料。
Reranker 是一種后處理技術(shù),常用于向量近似最近鄰(ANN)搜索之后。它通過更精確的語義相關(guān)性分析,對初始檢索結(jié)果進行語義級精細打分并排序,進一步提高檢索的準確性。
注意:既然通過 embedding 可以理解語義,為什么還要使用 rerank?前者可以檢索到相似語義的結(jié)果,但后者可以通過打分區(qū)找到最相關(guān)的結(jié)果,減少提示詞上下文窗口的占用。
3.5 答案生成
檢索到參考資料,接下來由模型組裝答案,需要使用提示詞進行引導(dǎo),最基礎(chǔ)的 rag 提示詞模板:
參考資料(檢索到的文本快):xxx
用戶查詢(用戶輸入的指令):xxx
請你根據(jù)參考資料回答用戶查詢。
備注:更詳細的提示詞的模板可以查看《AI產(chǎn)品經(jīng)理必修課:RAG(2)》的”三個 RAG 提示詞模板——精準地引導(dǎo) RAG 進行信息檢索與生成”。
4. 結(jié)語
RAG(檢索增強生成)技術(shù)在不斷發(fā)展,為各種應(yīng)用場景帶來了新的可能性。在實際的RAG編排中,難免會遇到各種問題,如何用逆向排查的方式定位問題,可以從哪幾個角思考解決方案??梢詤⒖迹篟AG 系統(tǒng)的問題排查可以查看《AI產(chǎn)品經(jīng)理必修課:RAG(1)》的”RAG的數(shù)據(jù)源從哪里來,出現(xiàn)錯誤信息,結(jié)果不合預(yù)期怎么辦?”。
本文由 @黃曉澤 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)作者許可,禁止轉(zhuǎn)載
題圖來自Unsplash,基于CC0協(xié)議
文章深入剖析了RAG技術(shù),從底層邏輯到落地路徑,為AI產(chǎn)品經(jīng)理提供了實用指南。