寫好提示詞prompt(一)了解提示詞的常用寫法與適用場景

0 評論 4276 瀏覽 11 收藏 14 分鐘

在當今信息爆炸的時代,高效地使用提示詞(prompt)已成為各行各業(yè)提升工作效率的關鍵之一。然而,提示詞的寫法和適用場景卻常常讓人困惑。本文將深入探討提示詞的常用寫法,并通過實際案例展示其在不同場景下的應用。

Google發(fā)布的最新框架CRISPE

  • CR:Capacity and Role(能力與角色)。你希望 ChatGPT 扮演怎樣的角色。
  • I: Insight(洞察),背景信息和上下文。
  • S:(陳述),你希望 ChatGPT 做什么。
  • P:Personality(個性),你希望 ChatGPT 以什么風格或方式回答你。
  • E:Experiment(實驗),要求 ChatGPT 為你提供多個答案。

常見的prompt的寫法:Zero-shot、Few-shot、CoT、CoT+SC、Step-Back

  • Zero-shot(零樣本學習):是一種機器學習技術,要求模型在沒有見過任何特定任務的訓練樣本的情況下,僅根據(jù)任務的描述和自身已有的知識來完成任務。模型需要依靠其在預訓練階段學習到的通用知識和模式識別能力,對全新的、未見過的任務進行推理和預測。例如在圖像分類中,模型在訓練時未見過某種特定類型的圖片,在測試時卻要對該類圖片進行分類;或者在語言翻譯中,直接讓模型翻譯從未見過的句子,僅通過任務指令來驅(qū)動模型輸出結果。
  • Few-shot(少樣本學習):與 Zero-shot 相對,模型在進行預測任務時,只需要少量的樣本作為參考。通常情況下,模型在預訓練階段學習了大量的通用知識,然后在面對新的具體任務時,僅利用很少的幾個標注樣本對模型進行微調(diào)或引導,使其適應新任務。例如在文本分類任務中,可能只給模型提供幾個屬于某一類別的文本示例,模型就能根據(jù)這些少量樣本以及預訓練的知識來對新的文本進行分類,判斷其是否屬于該類別。
  • CoT(Chain of Thought,思維鏈):是一種提示技術,旨在引導語言模型生成一系列中間推理步驟,以幫助其更好地回答復雜問題。通過在輸入中提供一些示例,展示問題解決的步驟和邏輯鏈條,讓模型學習模仿這種推理方式,從而提高模型在復雜任務上的性能。例如在數(shù)學問題求解中,給模型提供 “2+3=?首先計算 2+3,得到結果 5” 這樣帶推理步驟的示例,模型就能學會按照這樣的思維鏈來解決其他數(shù)學問題,而不是直接給出答案。
  • CoT+SC(Chain of Thought + Self-Consistency,思維鏈 + 自洽性):是在 CoT 基礎上的進一步擴展。在使用思維鏈引導模型生成推理路徑后,通過從模型中采樣多個不同的推理路徑,并選擇其中最一致或最合理的結果作為最終答案,來提高模型回答的準確性和可靠性。例如對于一個復雜的邏輯問題,模型可能生成多條不同的推理鏈,通過比較這些推理鏈之間的一致性和合理性,選擇出最優(yōu)的結果,避免模型只依賴單一的推理路徑而可能出現(xiàn)的錯誤。
  • Step-Back:可以理解為一種在解決問題或進行推理時退后一步、從更宏觀或更基礎的角度去思考的策略。在模型應用中,可能是指讓模型暫時跳出當前具體問題的細節(jié),回顧一些基本概念、原理或更廣泛的知識,以便更好地理解問題和找到解決方案。比如在處理一個復雜的科學問題時,模型先回顧相關的科學定律和基礎知識,再基于這些進行具體問題的分析和解答,而不是直接從問題的表面入手。

當然5種不同的提示詞寫法應當應用在不同的場景下:

一、無提示詞Zero-shot

(一)常識推理領域

任務:如果一個人在月球上跳躍,會比在地球上跳得更高還是更低?

Zero-shot 方式:向模型提問 “一個人在月球上跳躍和在地球上跳躍,哪里跳得更高”,模型依據(jù)對地球和月球重力等常識的理解來回答,正常情況下會輸出 “在月球上跳得更高”,不需要提前給它關于在月球和地球跳躍對比的具體例子。

(二)情感分析領域

任務:分析 “這部電影真的太精彩了,我從頭到尾都被吸引住了” 的情感傾向。

Zero-shot 方式:輸入 “請分析‘這部電影真的太精彩了,我從頭到尾都被吸引住了’表達的是積極情感還是消極情感”,模型根據(jù)語句中的詞匯和語義來判斷并輸出 “積極情感”,無需事先用大量標注好情感傾向的影評來訓練它針對這句話的判斷。

(三)文本分類領域

任務:判斷 “今天的天氣真好,陽光明媚,適合出門游玩” 屬于什么類型的文本。

Zero-shot 方式:給模型輸入 “請判斷‘今天的天氣真好,陽光明媚,適合出門游玩’屬于以下哪種文本類型:新聞、日記、詩歌、散文”,模型根據(jù)對各種文本類型的理解和句子內(nèi)容進行判斷,可能輸出 “日記傾向的日常記錄文本” 等答案,而不需要事先給它提供大量已標注好類型的類似文本作為示例。

拓展:對于更復雜的文本分類,如判斷一段關于人工智能技術原理的描述屬于科普文本、學術論文摘要還是技術博客,也可通過 Zero-shot 讓模型進行判斷。

二、Few-shot(少樣本學習)

(一)文本生成

給模型提供幾個特定風格的文本片段,如提供幾句古風詩詞,然后要求模型以同樣的古風風格創(chuàng)作一首完整的詩。模型根據(jù)這幾個樣本學習古風詩詞的用詞、韻律、句式等特點,生成新的內(nèi)容。

(二)命名實體識別

只給模型提供少量標注好的包含人名、地名、組織名等實體的句子,例如 “小明去了北京的清華大學” 標注出 “小明” 是人名,“北京” 是地名,“清華大學” 是組織名,讓模型據(jù)此識別其他文本中的各種命名實體。

(三)語義角色標注

給出少量已經(jīng)標注好語義角色的句子,如 “小明 [施事] 把書 [受事] 放在桌子上 [地點]”,讓模型學習不同語義角色的特點和關系,然后對新的句子進行語義角色標注。

三、CoT(Chain of Thought,思維鏈)

(一)數(shù)學領域

簡單算術問題:問題為 “小明有 5 個蘋果,小紅的蘋果比小明多 3 個,請問小紅有幾個蘋果?” 思維鏈可以是 “首先,已知小明有 5 個蘋果,小紅比小明多 3 個。那么我們要做的就是在小明的蘋果數(shù)基礎上加上多出的數(shù)量,即 5 + 3 = 8。所以,小紅有 8 個蘋果?!?/p>

幾何問題:“一個三角形的底邊長為 6 厘米,高為 4 厘米,求它的面積。” 思維鏈可以是 “首先,我們知道三角形的面積公式是 S = 1/2× 底 × 高。題目中給出底邊長為 6 厘米,高為 4 厘米。那么將數(shù)值代入公式可得,S = 1/2×6×4 = 3×4 = 12 平方厘米。所以這個三角形的面積是 12 平方厘米。”

(二)邏輯推理領域

真假判斷問題:“有三個人,A 說 B 在說謊,B 說 C 在說謊,C 說 A 和 B 都在說謊,請問誰說的是真話?” 思維鏈可以是 “假設 A 說的是真話,那么 B 在說謊。因為 B 說 C 在說謊,所以 C 說的是真話,可 C 說 A 和 B 都在說謊,這與假設 A 說真話矛盾,所以 A 說的是假話。假設 B 說的是真話,那么 C 在說謊,C 說 A 和 B 都在說謊就是假的,即 A 和 B 至少有一個說的是真話,因為假設 B 說真話,A 說假話是符合的,所以該假設成立,B 說的是真話。假設 C 說的是真話,那么 A 和 B 都在說謊,可 A 說 B 在說謊就成了真話,這與 C 說的話矛盾,所以 C 說的是假話。綜上,B 說的是真話?!?/p>

(三)排序問題

“小明、小紅和小李參加跑步比賽,小明比小紅跑得快,小李比小明跑得慢,請問三人的名次順序是怎樣的?” 思維鏈可以是 “首先,根據(jù)小明比小紅跑得快,可知小明的名次在小紅前面。又因為小李比小明跑得慢,所以小明的名次也在小李前面。那么三人的名次順序就是小明第一,然后小李在小明之后,所以小李第二,最后小紅第三。”

任務:分析 “這部電影真的太精彩了,我從頭到尾都被吸引住了” 的情感傾向。

Zero-shot 方式:輸入 “請分析‘這部電影真的太精彩了,我從頭到尾都被吸引住了’表達的是積極情感還是消極情感”,模型根據(jù)語句中的詞匯和語義來判斷并輸出 “積極情感”,無需事先用大量標注好情感傾向的影評來訓練它針對這句話的判斷。

四、CoT+SC(Chain of Thought + Self-Consistency,思維鏈 + 自洽性)

(一)醫(yī)學診斷與治療方案設計

任務:根據(jù)患者癥狀、檢查結果和病史,制定治療方案。

CoT+SC方式:1 基于指南推薦的標準流程推導。2 參考類似病例的成功治療方案。3 考慮患者過敏史和藥物相互作用。

(二)法律咨詢與合同審查

任務:分析合同條款是否存在法律風險或歧義。

CoT+SC方式:1 從合同法角度解析條款合法性。2 對比行業(yè)標準合同模板的差異。3 模擬不同履約場景下的責任劃分。

這類場景還有很多,COT 指示通過分步驟加大了 LLM 的深度。 SC 則是在增加深度的基礎上再增加寬度。

五、Step-Back

(一)工作項目問題

任務:當前項目延期的原因是什么

Step-Back方式:

1. 要想得到項目延期的真實原因,你需要知道哪些前提問題

2. 這些前提問題的答案分別是什么

3. 基于這個前提問題,你的結論是什么

(二)生活問題

任務:怎么解決我們的家庭裝修中空間布局不合理的問題

Step-Back方式:

1. 要想得到項目延期的真實原因,你需要知道哪些前提問題

2. 這些前提問題的答案分別是什么

3. 基于這個前提問題,你的結論是什么

五、總結

對于同樣的模型,同樣的任務,使用不同的 Prompt,輸出的結果也有不小的差異

一般來說,使用Prompt技巧的結果 回比不使用任何技巧要好

對于簡單的任務并不是疊加所有的技巧就會更好,到達一定結果后。再疊加技巧不會提升效果

這是一個讓大家理解 Prompt 編寫技巧的小教程,所以采用了同一個任務方便對比,但是有些復雜技巧適合與更難的任務,只有在更難的任務上才能看出差異

本文由 @AAA有生之年 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)作者許可,禁止轉(zhuǎn)載

題圖來自Unsplash,基于CC0協(xié)議

該文觀點僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務

更多精彩內(nèi)容,請關注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發(fā)揮!