如何與AI打交道?微軟的18條建議,值得每個做產(chǎn)品的人收藏
人與 AI 的交互時常陷入 “錯位”—— 你以為它懂了,它卻走向另一條路。一套關(guān)于人機協(xié)作的設(shè)計原則,從明確能力邊界到應(yīng)對出錯場景,再到長期適配習(xí)慣,勾勒出順暢互動的核心邏輯,讓 AI 真正成為懂配合的伙伴。
有一次,我刷到一個短視頻,忍不住笑出聲。
視頻里的男生跟家里的智能音箱說,“幫我訂杯咖啡”,它居然回一句“我能為你搜索附近的音樂?!?/p>
他一臉無奈:“我不是在點歌,我是想喝咖啡!”
是不是很眼熟?
和AI對話,好像“一個在講中文,一個在聽火星語”。你以為它懂了,其實它完全沒明白;你希望它幫你,結(jié)果它把你推向了另一條路。
問題出在哪?微軟研究院提出了答案。
?? 官網(wǎng)鏈接:https://www.microsoft.com/en-us/haxtoolkit/ai-guidelines/
他們提出了一套叫做 HAX(Human-AI eXperience)的18條交互設(shè)計原則,專為“人如何與AI協(xié)作”而生。
今天,我們就用簡單易懂的方式,把它拆開,講清楚。
共18條,分4個階段。
一、起點:系統(tǒng)該做什么?能做多好?
1. 說明系統(tǒng)能做什么
就像面試時你要告訴老板你會啥,AI系統(tǒng)也該清清楚楚告訴用戶:“我能做什么,我做的是哪方面的工作?!?/p>
比如你打開Siri,它說:“我可以幫你設(shè)置鬧鐘、播放音樂、查詢天氣……”你就知道別指望它會替你發(fā)朋友圈。
ChatGPT也是如此,它不是萬能秘書,而是“語言助手”。能寫文案、回答問題,但不會幫你打電話或訂外賣。
2. 說明系統(tǒng)做得有多好
“能做”和“做得好”是兩回事。
比如AI相冊可以識別照片中的“貓”,但偶爾也會把毛絨玩具誤認為是貓。你得知道它是“70%準(zhǔn)確率”,別太放心。
如果系統(tǒng)不告訴用戶它的“能力邊界”,用戶就會把它當(dāng)成神,一旦出錯就會大失所望。這就是“幻覺式信任”,產(chǎn)品的大忌。
二、互動中:怎么配合更順暢?
3. 讓服務(wù)出現(xiàn)在恰當(dāng)時機
好的AI,不搶戲,在你需要它的時候出現(xiàn)。
比如你剛打開高德地圖,它識別到你每天這個時間點要去公司,就彈出一句:“現(xiàn)在前往公司,預(yù)計23分鐘到達,要開始導(dǎo)航嗎?”
這比它一打開就開始播路況、搶著說話,要體貼得多。
4. 呈現(xiàn)相關(guān)信息,而不是一堆資料
你問:“附近有沒有咖啡店?”
? 最爛的回答是:“咖啡,起源于埃塞俄比亞,是一種廣受歡迎的飲品……”
? 最好的回答是:“附近有3家評分4.5以上的咖啡館,最近的是XXX咖啡,步行3分鐘?!?/p>
信息不是越多越好,而是越相關(guān)越好。
5. 尊重社會規(guī)范
AI再智能,也得講“人情世故”。
比如醫(yī)院引入AI診療系統(tǒng),它的角色是“醫(yī)生的助手”,不是“醫(yī)生的替代者”。它不能跳過醫(yī)生,直接對病人說:“你得了肺炎。”
那不是“智能”,是“越位”。
6. 減少偏見的擴散
AI從人類數(shù)據(jù)中學(xué)會“世界觀”,但人類的數(shù)據(jù)本身就有偏見。
如果你給它喂的招聘數(shù)據(jù)中,男性更多擔(dān)任CTO,它就會覺得“技術(shù)崗位=男性”;你不糾正,它就會越來越偏。
現(xiàn)實中,曾有AI招聘系統(tǒng)被發(fā)現(xiàn)“更傾向男性簡歷”,就是因為它學(xué)錯了東西,還以為是正確答案。
所以要給它“糾偏的機會”。
三、出錯時:如何優(yōu)雅收場?
7. 支持快速重新請求(再來一次)
你說錯話,想改一句,AI能不能馬上理解并重來?
比如你在AI繪圖軟件里輸錯關(guān)鍵詞,只要重新輸入,立刻刷新圖片——這種“快速回頭”的體驗非常重要。
否則你就會覺得:“它不懂我?!?/p>
8. 允許高效關(guān)閉(我不想用了)
你在使用一個AI客服,發(fā)現(xiàn)回答不對勁,想直接轉(zhuǎn)人工——能不能馬上做到?
好的系統(tǒng)會有“退出按鈕”或“轉(zhuǎn)人工”選項,壞的系統(tǒng)讓你在對話框里反復(fù)輸入“轉(zhuǎn)人工、人工、人工”,還是不理你。
這會讓用戶非常抓狂。
9. 支持快速修正錯誤
AI推薦了一家你不喜歡的餐廳,你說:“不是A,是B。”
它應(yīng)該能馬上理解,并重新推薦——而不是裝聾作啞繼續(xù)念列表。
像Spotify或網(wǎng)易云的“點踩”機制,就是一種修正通道,用戶的反饋可以快速修正推薦結(jié)果。
10. 不確定時,控制范圍
AI不懂的時候,不能“瞎說”。
比如ChatGPT有時回答“我無法確定你的問題背景”,這其實比一本正經(jīng)胡說八道好很多。
語音助手說“我不太確定你是不是想播放這首歌”,比直接放錯歌,更讓人覺得靠譜。
11. 說明它為啥這么做
你問AI:“為什么你推薦這本書?”
它回答:“因為你看過《原則》和《納瓦爾寶典》,這本《窮查理寶典》風(fēng)格類似?!?/p>
你就會信任它。因為你知道它“不是拍腦袋”,而是“有理由”。
這種“可解釋性”會極大增強人與AI之間的信任。
四、長期關(guān)系:越用越懂你
12. 記得你的使用習(xí)慣
你每天早上7點打開音樂App聽《晨間冥想》,系統(tǒng)應(yīng)該自動在6:59準(zhǔn)備好。
這就是“習(xí)慣記憶”。
如果它每次都問:“您想聽什么?”用戶就會煩。
13. 從行為中學(xué)習(xí)
你經(jīng)常跳過某類推薦內(nèi)容,系統(tǒng)應(yīng)該學(xué)會“別再推薦了”。B站、YouTube、抖音都在用“你的行為”來優(yōu)化算法。
不是你告訴它,而是它看你“怎么做”,自己學(xué)會“怎么變”。
14. 小心謹慎地更新模型
不要因為一次版本升級,用戶界面就大改、功能全變、習(xí)慣全沒。好的AI產(chǎn)品,會小步試探——比如在少數(shù)用戶群體中灰度測試,觀察反饋再推廣。
微信就是這樣穩(wěn):每次更新,幾乎都不影響用戶的操作節(jié)奏。
15. 鼓勵用戶細化反饋
你說:“不喜歡這個結(jié)果。”
系統(tǒng)不該就此打住,而是接著問:“是因為推薦內(nèi)容不對,還是界面太慢,還是表達方式不適合?”
通過“層層細問”,讓用戶成為AI進化的一部分。
16. 告訴用戶他們行為的影響
你在購物網(wǎng)站點了某個品類,系統(tǒng)要告訴你:“你現(xiàn)在看到的推薦,會因為你的點擊而變化?!?/p>
這樣用戶才知道:我的一個動作,系統(tǒng)就會“改寫記憶”。
17. 提供統(tǒng)一管理權(quán)限
你得有一個“總控室”:看哪些數(shù)據(jù)被收集、哪些服務(wù)在運行、哪些權(quán)限你已授權(quán)。
比如蘋果的“隱私報告”、微信的“授權(quán)管理”,就是在給用戶“安全感”。
18. 主動告知變化
每次更新推薦算法、隱私政策,系統(tǒng)都應(yīng)主動說:“我們最近做了以下更新……不影響你的現(xiàn)有使用體驗,但更符合你的偏好?!?/p>
這不僅是合規(guī),更是“尊重”。
寫在最后
這18條人機協(xié)作原則,看起來像是寫給設(shè)計師的,其實寫給每一個與AI共處的人。
因為未來,AI不會只是“工具”,它將越來越像“同事”——甚至是“你身邊最?;拥幕锇椤⒛愕墓び褌儭?。
本文由人人都是產(chǎn)品經(jīng)理作者【龍國富】,微信公眾號:【龍國富】,原創(chuàng)/授權(quán) 發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。
題圖來自Unsplash,基于 CC0 協(xié)議。
- 目前還沒評論,等你發(fā)揮!