谷歌 Prompt Engineering 白皮書:2025年 AI 提示詞工程的 10 個技巧
在AI技術(shù)飛速發(fā)展的當下,如何更高效地與大語言模型(LLM)溝通,以獲取更準確、更有價值的輸出,成為了一個備受關(guān)注的問題。谷歌最新發(fā)布的《Prompt Engineering》白皮書,為這一問題提供了極具價值的指導。本文將詳細介紹白皮書中提出的10個提示詞工程技巧,希望能幫到大家。
Google 今年發(fā)布了一份長達 65頁 的白皮書,詳細探討了提示工程(Prompt Engineering),介紹了如何通過設(shè)計和優(yōu)化提示詞來引導AI大語言模型(LLM)生成準確的輸出。
這篇論文提出了多種提示工程技術(shù)來解決大型語言模型的提示優(yōu)化問題。在這里提取了10個具體的提示詞技巧:
- 零樣本提示:提供任務(wù)的描述和一些文本,讓LLM開始生成。這種方法適用于不需要創(chuàng)造性的任務(wù)。
- 單樣本和少樣本提示:提供單個或多個示例,幫助模型理解任務(wù)并要求其模仿這些示例。示例的數(shù)量和質(zhì)量對任務(wù)的復雜性有顯著影響。
- 系統(tǒng)提示:設(shè)置整體上下文和目的,定義模型的基本能力和主要任務(wù)。例如,要求模型返回JSON格式的輸出。
- 角色提示:為模型分配特定角色(如旅行指南),使其生成與角色一致的內(nèi)容。
- 上下文提示:提供與當前任務(wù)相關(guān)的具體細節(jié)或背景信息,幫助模型理解請求并生成相關(guān)響應。
- 逐步回退提示:首先讓LLM考慮一個與具體任務(wù)相關(guān)的通用問題,然后將答案反饋到后續(xù)的具體任務(wù)提示中,以激活相關(guān)的背景知識和推理過程。
- 鏈式思維(CoT)提示:生成中間推理步驟,幫助LLM生成更準確的答案。這種方法適用于需要推理的任務(wù)。
- 自一致性提示:通過生成多樣的推理路徑并選擇最常見的答案來提高響應的準確性和一致性。
- 樹狀思維(ToT)提示:允許LLM同時探索多個不同的推理路徑,特別適用于復雜任務(wù)。
- ReAct(reason & act)提示:結(jié)合推理和外部工具(如搜索、代碼解釋器)來解決問題,模擬人類在現(xiàn)實世界中的操作方式。
什么是提示工程?
提示工程是設(shè)計高質(zhì)量輸入指令(即“提示詞”)的過程,用于引導大型語言模型(如Gemini、GPT等)生成更準確的輸出。就像和人溝通一樣,你提問的方式直接影響AI的回答質(zhì)量。即使你不是程序員,也能通過優(yōu)化提示詞讓AI更好地理解你的需求。
技巧
以下是提取的Prompt Engineering技巧、案例及適用場景:
1.?零樣本提示(Zero-Shot)
技巧:直接給出任務(wù),不提供示例。
例子:
提問:“將電影評論分類為積極、中性或消極?!?/p>
回答:“這部電影畫面很美,但劇情拖沓?!?/p>
適用場景:簡單任務(wù)(如分類、翻譯)。
2.?單樣本/少樣本提示(One-Shot/Few-Shot)
技巧:提供1個(單樣本)或多個(少樣本)示例,引導模型模仿。
例子:
任務(wù):解析披薩訂單為JSON。
示例輸入:“我要一個小披薩,加芝士、番茄醬和意大利辣香腸?!?/p>
示例輸出:{“size”: “small”, “ingredients”: [“cheese”, “tomato sauce”, “pepperoni”]}
適用場景:需要特定輸出格式或復雜模式的任務(wù)(如數(shù)據(jù)解析、代碼生成)。
3.?系統(tǒng)提示(System Prompting)
技巧:設(shè)定模型的整體任務(wù)框架(如輸出格式、安全限制)。
例子:
指令:“僅返回大寫的情感標簽?!?/p>
輸入:“這部電影太糟糕了?!?/p>
輸出:“NEGATIVE”
適用場景:需控制輸出結(jié)構(gòu)或安全性(如JSON生成、毒性過濾)。
4.?角色提示(Role Prompting)
技巧:為模型分配特定角色(如旅行指南、教師)。
例子:
指令:“扮演旅行指南,推薦阿姆斯特丹的3個博物館。”
輸出:列出梵高博物館等景點。
適用場景:需要特定風格或?qū)I(yè)知識的回答(如客服、教育)。
5.?上下文提示(Contextual Prompting)
技巧:提供任務(wù)相關(guān)的背景信息。
例子:
上下文:“你正在為復古游戲博客撰稿?!?/p>
請求:“建議3個文章主題。”
輸出:80年代街機游戲設(shè)計演變等。
適用場景:需個性化或領(lǐng)域相關(guān)的輸出(如內(nèi)容創(chuàng)作)。
6.?退步提示(Step-Back Prompting)
技巧:先讓模型回答抽象問題,再解決具體任務(wù)。
例子:
抽象問題:“FPS游戲中哪些設(shè)定能創(chuàng)造挑戰(zhàn)性?”
具體任務(wù):“基于‘廢棄軍事基地’設(shè)定寫劇情。”
適用場景:復雜任務(wù)需激活背景知識(如游戲設(shè)計、學術(shù)研究)。
7.?思維鏈(Chain of Thought,?CoT)
技巧:要求模型分步推理。
例子:
提問:“我3歲時伴侶年齡是我的3倍,現(xiàn)在20歲,伴侶幾歲?”
模型分步計算年齡差后輸出:“26歲。”
適用場景:數(shù)學問題、邏輯推理或需解釋的任務(wù)。
8.?自我一致性(Self-Consistency)
技巧:多次生成答案并投票選擇最常見結(jié)果。
例子:
多次提問分類郵件是否為重要,最終選擇多數(shù)結(jié)果“IMPORTANT”。
適用場景:減少隨機性,提高答案可靠性(如分類、評估)。
9.?思維樹(Tree?of Thoughts,?ToT)
技巧:并行探索多條推理路徑。
適用場景:需多角度分析的復雜問題(如策略規(guī)劃、創(chuàng)意生成)。
10.?ReAct(推理與行動)
技巧:結(jié)合推理和外部工具(如搜索API)。
例子:
任務(wù):“Metallica樂隊成員共有多少孩子?”
模型分步搜索每位成員信息并累加。
適用場景:需實時數(shù)據(jù)或交互的任務(wù)(如信息檢索、代碼執(zhí)行)。
作者|Authors: Lee Boonstra
原文|https://www.kaggle.com/whitepaper-prompt-engineering
出品|碼個蛋(ID:codeegg)
工具|NoteBookLM(播客音頻)、DeepSeek V3(文本總結(jié))
整理|陳宇明播客
本文由人人都是產(chǎn)品經(jīng)理作者【陳宇明】,微信公眾號:【碼個蛋】,原創(chuàng)/授權(quán) 發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。
題圖來自Unsplash,基于 CC0 協(xié)議。
狗屁水文