更好的輸入,才能更好地思考

0 評論 848 瀏覽 2 收藏 11 分鐘

本文從技術(shù)原理到實際應(yīng)用,通俗易懂地闡釋了AI搜索的前沿進展。了解它是如何通過收集數(shù)據(jù)、機器學(xué)習(xí)、自然語言處理等技術(shù),提供快速、準確、個性化的搜索結(jié)果。

今天看到一句很牛的話,放在題目上蠻好。

首先,我覺得思考是第一生產(chǎn)力,維持著工作勢能和帶來活力。因為一方面,機械化工作本身就會讓大腦、肢體感受厭倦和乏力,你會覺得沒意義,后面轉(zhuǎn)化成一種疲于應(yīng)付。

另外一方面,你會陷入某種內(nèi)耗里面,會常問自己N個為什么?給我任務(wù)的人是不是傻x,為啥子這么做等等諸如此類吧。

所以,在這環(huán)節(jié)階段必不可少。

01

今年來,或者說從GPT的迅猛凸起,我們就一直與AI平行或結(jié)合。從場景及目前的市場變化看,2024年標志著AI搜索技術(shù)的突破年,它不僅顛覆了傳統(tǒng)搜索模式,更以前所未有的速度和智能化水平,為用戶帶來革命性的搜索體驗。

那么AI搜索為何能獲得巨大增速,這個新時代到底是靠什么最前沿的技術(shù)來實現(xiàn)的呢?

說到這,搬出我們的搜索工具來給我劃出結(jié)構(gòu)和大綱。并用一個直白通俗易懂的例子來給我們說明下。

讓我用一個簡單的例子來通俗地解釋AI搜索的技術(shù)原理:

想象你有一個智能助手,它能夠理解你的問題并提供準確的答案。這個助手就像AI搜索引擎一樣,它通過以下幾個步驟來幫助你找到信息。

首先,AI搜索引擎需要收集大量的數(shù)據(jù),就像一個圖書館收集書籍一樣。這些數(shù)據(jù)可以是網(wǎng)頁、文檔、圖片等,它們存儲在搜索引擎的數(shù)據(jù)庫中412。

接著,搜索引擎使用機器學(xué)習(xí)技術(shù)來分析這些數(shù)據(jù)。機器學(xué)習(xí)是一種讓計算機通過訓(xùn)練數(shù)據(jù)學(xué)習(xí)并做出預(yù)測的方法。在這個過程中,搜索引擎會找到數(shù)據(jù)之間的關(guān)聯(lián)和模式2。

然后,當用戶輸入一個搜索詞或問題時,AI搜索引擎會利用自然語言處理(NLP)技術(shù)來理解用戶的意圖。NLP是人工智能的一個分支,它讓計算機能夠理解和生成人類語言1516。

接下來,搜索引擎會使用知識圖譜來增強搜索結(jié)果。知識圖譜是一種結(jié)構(gòu)化的知識庫,它包含了實體(如人、地點、事物)之間的關(guān)系。通過知識圖譜,搜索引擎可以提供更豐富、更準確的信息15。

最后,搜索引擎會根據(jù)用戶的查詢和之前的搜索歷史,使用推薦系統(tǒng)來個性化搜索結(jié)果。推薦系統(tǒng)通過分析用戶的行為和偏好,來推薦最相關(guān)的內(nèi)容9。

通過這些步驟,AI搜索引擎能夠提供快速、準確且個性化的搜索結(jié)果,幫助用戶找到他們需要的信息。就像一個智能助手,它不僅能理解你的問題,還能從海量信息中找到最佳答案412。

AI搜索技術(shù)是一種利用人工智能方法來增強信息檢索的技術(shù)。它的歷史可以追溯到20世紀50年代,最初用于解決邏輯和數(shù)學(xué)問題,如象棋游戲。

這些早期的AI系統(tǒng),如IBM的Deep Blue,通過搜索算法評估可能的棋局走法,并選擇最佳策略。Deep Blue在1997年擊敗國際象棋世界冠軍加里·卡斯帕羅夫,這標志著搜索技術(shù)在解決復(fù)雜問題上的巨大潛力。

02

在AI中,搜索技術(shù)主要用于兩大類問題:優(yōu)化問題、決策問題、解決問題

大語言模型盡管在應(yīng)用領(lǐng)域取得了顯著的成果,但是在具體應(yīng)用中仍具有很大的局限性:

1.在處理知識密集型任務(wù)中可能會產(chǎn)生”幻覺”,比如:

  • 輸入沖突幻覺 (用戶想要a但返回b,輸入晚餐返回午餐)
  • 上下文沖突幻覺 (回答全文沒出現(xiàn)某事物,總結(jié)的時候卻出現(xiàn))
  • 與事實相矛盾的幻覺 (對某個事物下定義不正確:比如熊貓屬于貓科動物)

2.處理訓(xùn)練數(shù)據(jù)中沒有的知識 無法回答或者亂下定義

3.處理時效性問題 無法回答或回答不對

為了克服這些問題,檢索增強生成(Retrieval Augmented Generation,RAG) 通過計算語義相似性 從外部知識庫檢索相關(guān)文檔片段,從而增強LLMs的能力。通過引用外部知識,RAG有效的減少生成事實錯誤內(nèi)容的問題。

最初RAG的誕生 與Transformer架構(gòu)的興起同步,主要是通過預(yù)訓(xùn)練模型(Pre-Training Models,PTM)的方式,通過額外的知識增強語言模型。最初為了優(yōu)化預(yù)訓(xùn)練技術(shù)。隨著ChatGPT的出現(xiàn),LLMs展示了強大的上下文學(xué)習(xí)能力,標志著RAG研究的一個轉(zhuǎn)折點,在推斷階段(提問回答),RAG研究轉(zhuǎn)向為LLMs提供更好的信息來應(yīng)對更復(fù)雜和知識密集的任務(wù)。從而推動RAG快速發(fā)展,隨著研究的深入,RAG增強不再僅限于推斷階段,開始更多地融入LLM的微調(diào)技術(shù)。

03

RAG的含義隨著技術(shù)的發(fā)展而擴展。在大型語言模型時代,RAG的具體定義是指模型在回答問題或生成文本時,首先從大量文檔語料庫中檢索相關(guān)信息。然后,利用這些檢索到的信息生成響應(yīng)或文本,從而提高預(yù)測的質(zhì)量。RAG方法允許開發(fā)人員不必為每個特定任務(wù)重新訓(xùn)練整個大型模型。相反,他們可以附加一個知識庫,為模型提供額外的信息輸入,并提高其響應(yīng)的準確性。RAG方法特別適用于知識密集型任務(wù)。綜上所述,RAG系統(tǒng)由兩個關(guān)鍵階段組成:

1、利用編碼模型檢索基于問題的相關(guān)文檔,如BM25、DPR、Col- BERT和類似方法[Robertson等人,2009,Karpukhin等人,2020,Khattab和Zaharia, 2020]。

2.、生成階段:使用檢索到的上下文作為條件,系統(tǒng)生成文本。

上圖是應(yīng)用于問答的RAG流程的代表性實例。它主要包括3個步驟。

  1. 索引 Indexing。文檔被分成幾塊,編碼成向量,并存儲在向量數(shù)據(jù)庫中。
  2. 檢索 Retrieval。根據(jù)語義相似度檢索與問題最相關(guān)的Top k塊。
  3. 生成 Generation。將原始問題和檢索到的塊一起輸入LLM以生成最終答案。

1、Naive RAG – 樸素RAG范式

它在ChatGPT廣泛應(yīng)用后迅速嶄露頭角。Naive RAG遵循傳統(tǒng)的流程,包括索引、檢索和生成,也被稱為“檢索-閱讀”框架。

2、Advanced RAG – 高級RAG范式

高級RAG旨在解決樸素RAG的局限性,特別關(guān)注提高檢索質(zhì)量。它采用預(yù)檢索和后檢索策略,通過滑動窗口方法、細粒度分割和元數(shù)據(jù)的整合來改進索引技術(shù),同時引入多種優(yōu)化方法以提升檢索效率。

3、Modular RAG – 模塊化RAG范式

模塊化RAG架構(gòu)超越了前兩種RAG范式,提供了更高的適應(yīng)性和靈活性。它包括多種策略來改進其組件,如添加搜索模塊進行相似性搜索,以及通過微調(diào)來優(yōu)化檢索器。

Retrieval-Augmented Generation(RAG)作為機器學(xué)習(xí)和自然語言處理領(lǐng)域的一大創(chuàng)新,不僅代表了技術(shù)的進步,更在實際應(yīng)用中展示了其驚人的潛力。

04

引擎的本質(zhì):“搜索引擎的核心是用戶體驗?;ヂ?lián)網(wǎng)雖然是免費的,用戶使用搜索引擎不付出金錢,但也是有代價的,那就是時間成本。因此,讓用戶在最短的時間內(nèi)獲得最想要的東西就是最具性價比的服務(wù)

一款優(yōu)秀的AI搜索引擎,應(yīng)該能對用戶的搜索意圖有足夠的推理能力,能快速索引相關(guān)優(yōu)質(zhì)的信息源,并且以適當?shù)母袷阶鰞?nèi)容呈現(xiàn)。是索引庫、檢索算法、工程能力、產(chǎn)品設(shè)計的綜合比拼。

作者:陌晨 公眾號:陌晨

本文由@陌晨 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)許可,禁止轉(zhuǎn)載。

題圖來自Unsplash,基于 CC0 協(xié)議。

該文觀點僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務(wù)。

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發(fā)揮!