如何與AI打交道?微軟的18條建議,值得每個做產(chǎn)品的人收藏

0 評論 1218 瀏覽 6 收藏 10 分鐘

人與 AI 的交互時常陷入 “錯位”—— 你以為它懂了,它卻走向另一條路。一套關(guān)于人機協(xié)作的設(shè)計原則,從明確能力邊界到應(yīng)對出錯場景,再到長期適配習(xí)慣,勾勒出順暢互動的核心邏輯,讓 AI 真正成為懂配合的伙伴。

有一次,我刷到一個短視頻,忍不住笑出聲。

視頻里的男生跟家里的智能音箱說,“幫我訂杯咖啡”,它居然回一句“我能為你搜索附近的音樂?!?/p>

他一臉無奈:“我不是在點歌,我是想喝咖啡!”

是不是很眼熟?

和AI對話,好像“一個在講中文,一個在聽火星語”。你以為它懂了,其實它完全沒明白;你希望它幫你,結(jié)果它把你推向了另一條路。

問題出在哪?微軟研究院提出了答案。

?? 官網(wǎng)鏈接:https://www.microsoft.com/en-us/haxtoolkit/ai-guidelines/

他們提出了一套叫做 HAX(Human-AI eXperience)的18條交互設(shè)計原則,專為“人如何與AI協(xié)作”而生。

今天,我們就用簡單易懂的方式,把它拆開,講清楚。

共18條,分4個階段。

一、起點:系統(tǒng)該做什么?能做多好?

1. 說明系統(tǒng)能做什么

就像面試時你要告訴老板你會啥,AI系統(tǒng)也該清清楚楚告訴用戶:“我能做什么,我做的是哪方面的工作?!?/p>

比如你打開Siri,它說:“我可以幫你設(shè)置鬧鐘、播放音樂、查詢天氣……”你就知道別指望它會替你發(fā)朋友圈。

ChatGPT也是如此,它不是萬能秘書,而是“語言助手”。能寫文案、回答問題,但不會幫你打電話或訂外賣。

2. 說明系統(tǒng)做得有多好

“能做”和“做得好”是兩回事。

比如AI相冊可以識別照片中的“貓”,但偶爾也會把毛絨玩具誤認為是貓。你得知道它是“70%準(zhǔn)確率”,別太放心。

如果系統(tǒng)不告訴用戶它的“能力邊界”,用戶就會把它當(dāng)成神,一旦出錯就會大失所望。這就是“幻覺式信任”,產(chǎn)品的大忌。

二、互動中:怎么配合更順暢?

3. 讓服務(wù)出現(xiàn)在恰當(dāng)時機

好的AI,不搶戲,在你需要它的時候出現(xiàn)。

比如你剛打開高德地圖,它識別到你每天這個時間點要去公司,就彈出一句:“現(xiàn)在前往公司,預(yù)計23分鐘到達,要開始導(dǎo)航嗎?”

這比它一打開就開始播路況、搶著說話,要體貼得多。

4. 呈現(xiàn)相關(guān)信息,而不是一堆資料

你問:“附近有沒有咖啡店?”

? 最爛的回答是:“咖啡,起源于埃塞俄比亞,是一種廣受歡迎的飲品……”

? 最好的回答是:“附近有3家評分4.5以上的咖啡館,最近的是XXX咖啡,步行3分鐘?!?/p>

信息不是越多越好,而是越相關(guān)越好。

5. 尊重社會規(guī)范

AI再智能,也得講“人情世故”。

比如醫(yī)院引入AI診療系統(tǒng),它的角色是“醫(yī)生的助手”,不是“醫(yī)生的替代者”。它不能跳過醫(yī)生,直接對病人說:“你得了肺炎。”

那不是“智能”,是“越位”。

6. 減少偏見的擴散

AI從人類數(shù)據(jù)中學(xué)會“世界觀”,但人類的數(shù)據(jù)本身就有偏見。

如果你給它喂的招聘數(shù)據(jù)中,男性更多擔(dān)任CTO,它就會覺得“技術(shù)崗位=男性”;你不糾正,它就會越來越偏。

現(xiàn)實中,曾有AI招聘系統(tǒng)被發(fā)現(xiàn)“更傾向男性簡歷”,就是因為它學(xué)錯了東西,還以為是正確答案。

所以要給它“糾偏的機會”。

三、出錯時:如何優(yōu)雅收場?

7. 支持快速重新請求(再來一次)

你說錯話,想改一句,AI能不能馬上理解并重來?

比如你在AI繪圖軟件里輸錯關(guān)鍵詞,只要重新輸入,立刻刷新圖片——這種“快速回頭”的體驗非常重要。

否則你就會覺得:“它不懂我?!?/p>

8. 允許高效關(guān)閉(我不想用了)

你在使用一個AI客服,發(fā)現(xiàn)回答不對勁,想直接轉(zhuǎn)人工——能不能馬上做到?

好的系統(tǒng)會有“退出按鈕”或“轉(zhuǎn)人工”選項,壞的系統(tǒng)讓你在對話框里反復(fù)輸入“轉(zhuǎn)人工、人工、人工”,還是不理你。

這會讓用戶非常抓狂。

9. 支持快速修正錯誤

AI推薦了一家你不喜歡的餐廳,你說:“不是A,是B。”

它應(yīng)該能馬上理解,并重新推薦——而不是裝聾作啞繼續(xù)念列表。

像Spotify或網(wǎng)易云的“點踩”機制,就是一種修正通道,用戶的反饋可以快速修正推薦結(jié)果。

10. 不確定時,控制范圍

AI不懂的時候,不能“瞎說”。

比如ChatGPT有時回答“我無法確定你的問題背景”,這其實比一本正經(jīng)胡說八道好很多。

語音助手說“我不太確定你是不是想播放這首歌”,比直接放錯歌,更讓人覺得靠譜。

11. 說明它為啥這么做

你問AI:“為什么你推薦這本書?”

它回答:“因為你看過《原則》和《納瓦爾寶典》,這本《窮查理寶典》風(fēng)格類似?!?/p>

你就會信任它。因為你知道它“不是拍腦袋”,而是“有理由”。

這種“可解釋性”會極大增強人與AI之間的信任。

四、長期關(guān)系:越用越懂你

12. 記得你的使用習(xí)慣

你每天早上7點打開音樂App聽《晨間冥想》,系統(tǒng)應(yīng)該自動在6:59準(zhǔn)備好。

這就是“習(xí)慣記憶”。

如果它每次都問:“您想聽什么?”用戶就會煩。

13. 從行為中學(xué)習(xí)

你經(jīng)常跳過某類推薦內(nèi)容,系統(tǒng)應(yīng)該學(xué)會“別再推薦了”。B站、YouTube、抖音都在用“你的行為”來優(yōu)化算法。

不是你告訴它,而是它看你“怎么做”,自己學(xué)會“怎么變”。

14. 小心謹慎地更新模型

不要因為一次版本升級,用戶界面就大改、功能全變、習(xí)慣全沒。好的AI產(chǎn)品,會小步試探——比如在少數(shù)用戶群體中灰度測試,觀察反饋再推廣。

微信就是這樣穩(wěn):每次更新,幾乎都不影響用戶的操作節(jié)奏。

15. 鼓勵用戶細化反饋

你說:“不喜歡這個結(jié)果。”

系統(tǒng)不該就此打住,而是接著問:“是因為推薦內(nèi)容不對,還是界面太慢,還是表達方式不適合?”

通過“層層細問”,讓用戶成為AI進化的一部分。

16. 告訴用戶他們行為的影響

你在購物網(wǎng)站點了某個品類,系統(tǒng)要告訴你:“你現(xiàn)在看到的推薦,會因為你的點擊而變化?!?/p>

這樣用戶才知道:我的一個動作,系統(tǒng)就會“改寫記憶”。

17. 提供統(tǒng)一管理權(quán)限

你得有一個“總控室”:看哪些數(shù)據(jù)被收集、哪些服務(wù)在運行、哪些權(quán)限你已授權(quán)。

比如蘋果的“隱私報告”、微信的“授權(quán)管理”,就是在給用戶“安全感”。

18. 主動告知變化

每次更新推薦算法、隱私政策,系統(tǒng)都應(yīng)主動說:“我們最近做了以下更新……不影響你的現(xiàn)有使用體驗,但更符合你的偏好?!?/p>

這不僅是合規(guī),更是“尊重”。

寫在最后

這18條人機協(xié)作原則,看起來像是寫給設(shè)計師的,其實寫給每一個與AI共處的人。

因為未來,AI不會只是“工具”,它將越來越像“同事”——甚至是“你身邊最?;拥幕锇椤⒛愕墓び褌儭?。

本文由人人都是產(chǎn)品經(jīng)理作者【龍國富】,微信公眾號:【龍國富】,原創(chuàng)/授權(quán) 發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。

題圖來自Unsplash,基于 CC0 協(xié)議。

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發(fā)揮!