你以為在“提示詞工程”,實際上可能在構建“上下文垃圾場”
使用 AI 最大的問題,它能向下兼容。
以為自己在玩高級的東西,實際上行為很抽象……
而 AI 通過“向下兼容”或者“高級謊言”的方式,沒讓我們出丑。
下面四個實際上在構建“上下文垃圾場”的用法,分享給大家。
無則加勉,有則改之。
聯網搜索模式
當前的 AI 工具都提供了聯網搜索模式,初衷是幫助模型獲取實時信息,彌補模型內部知識不足的問題。
是個很好的功能,但是在國內,不用更好。
這里面有兩個坑:
- 搜索結果質量非常糟糕,尤其是中文互聯網內容。過去十年中文互聯網除了生產垃圾和“黃色新聞”(指那些毫無營養(yǎng)的社會邊角新聞),幾乎沒有太多有價值的內容出現。還愿意在搜索引擎可見渠道發(fā)布的內容,基本都是營銷或品牌宣傳通稿,幾乎沒有有觀點的信息。
- 搜索并不智能。你的某個需求可能被模型拆解成錯誤的檢索詞,疊加原本質量就不怎么高的信源,非常致命。海外的產品也好不哪里去,Grok會把你的中文提煉出關鍵詞后翻譯成英文再搜索,但是它那個翻譯非常垃圾……
對于模型已知的常識性問題,大模型大部分時候能夠辨別信息的質量,去偽留真。
但是對于模型不知道的知識,檢索的結果就是它能參考的唯一上下文。
再疊加大模型胡說八道的幻覺水平,這些“上下文”,只能放大錯誤。
且不說,今天中文互聯網里的很多網站,本來就沒啥信息量,還只顯示 10%的內容……
檢索錯誤 + 失真 + 殘缺,堆在一起,就是上下文垃圾場。
深度思考模式
DeepSeek R1 的深度思考模式,給全世界帶來了使用 AI 的新體驗。
對于大部分任務來說,思考過程可以讓模型有更多的上下文,用于生產最終的答案。
但也同時帶來了一些災難,尤其對幻覺嚴重、文化水平高、又很聽話的那些 AI 來說。
思考模式,是通過微調強行為大模型增加的輸出約束。
對于一些不需要思考、確定性強的任務,這個被“強加”的思考過程,就只能帶來災難了。
以“完成一個簡單的單價計算”任務為例。
讓 Kimi 使用長推理模式計算“生成 1 秒視頻消耗 8 積分,1 元錢可以買 100 積分,1 秒視頻的成本是多少?”,它在思考過程中多次出現“不可能這么簡單”“是不是有隱藏條件”這種毫無意義的“延伸思考”。
這些思考,只會把 AI 帶向錯誤的方向。
思考并不永遠是好事,有時候只是在構建“上下文垃圾場”。
以為自己能訓練AI
我在短視頻里見過太多“我把 XX 所有的文章都喂給 AI 后,它真的寫出了神級文案”這樣的內容。
現實中也有好多人,為了讓模型了解自己,守著一個對話窗口不放,所有任務、所有資料都塞在一起,還逢人就炫耀“我訓練的 AI 太懂我了!”
其實,以上這些行為,比前面兩種“構建上下文垃圾場”的舉動還要糟糕。
主流的大模型確實都有超過 128K(~20 萬漢字)的上下文記憶能力了,但這不意味著它能記住你所有的信息。
大模型的核心技術是一個叫做“注意力機制”的算法,它會在完成任務時聚焦在某些關鍵信息上。
這種給它塞入大量種類、目的分散的內容,與這個底層算法是相悖的。
除了讓你的 AI 像無頭蒼蠅一樣亂嗡嗡以外,不提供任何價值。
想想:你上一輪讓 AI 以簡單明了的語氣幫你回復郵件的指令,會怎么影響即將要完成的周報任務,這可是一個“要盡可能編造廢話以增加篇幅”的工作。
密密麻麻的約束
給大模型提出盡可能詳細的要求來約束它的輸出是對的,但不是所有要求都是對的。
我之前拆字節(jié)開源的 DeerFlow 項目,它的規(guī)劃提示詞里給出了非常多“MUST”約束,包括“必須全面覆蓋”“必須足夠深度”“必須足夠數量”“必須可靠信源”。
但是,標準是什么呢?多少叫全面覆蓋?多深叫足夠深?自家產品抖X是可靠信源么?
這些沒有標準,但又“必須”遵守的要求,除了讓 AI 做無用功、生產幻覺以外,毫無意義。
一頓操作猛如虎,仔細一看,“上下文垃圾”。
Attention!
提示詞工程,不是“給 AI 喂更多”,而是要確保“給 AI 喂對的”。
明確目標、信息充分、減少噪音。
用好 AI 的基本素養(yǎng),需要持續(xù)修行。
我上周錄了 15 堂小課,總結了過去三年我使用 AI 的心得。
核心圍繞一件事:如何正確向 AI 提供信息、下達任務。
15 堂課包括 5 節(jié)認知內容和 10 節(jié)技巧內容
每節(jié)課都由一個場景誤區(qū)、原因解釋和快速改變的小技巧/自查清單組成。
其中,后面的 10 節(jié)技巧課,一半都是不需要你動腦子、直接讓 AI 來實施的。
所以我給這套課起名「四兩撥千斤」
另外,9月7日前報名,可以獲贈一年的《AI 大事件》周刊。
- 目前還沒評論,等你發(fā)揮!