相比于機器,我們對人類的錯誤更加寬容嗎?

7 評論 1756 瀏覽 0 收藏 13 分鐘

編輯導讀:當你正在工作,你的電腦死機崩潰時,盡管很無奈,但也不至于會對一臺機器破口大罵。反而在面對人為的錯誤時,會更加嚴苛。你是這樣的嗎?本文作者對此進行了分析,希望對你有幫助。

“Assessing outcomes vs intention.

評估結(jié)果與目的”

一、你對頻繁死機的電腦感到崩潰嗎?

我們可能認為:相比于笨拙的人類,我們對功能失常的應(yīng)用程序或設(shè)計糟糕的算法會更為苛刻。然而這只是一種模糊的猜測。

事實上,用戶對機器反而可能更具有同情心,他們似乎并不會對機器的錯誤感到生氣或者苛責。根據(jù)César A. Hidalgo①(經(jīng)濟學家,前MIT研究員)的說法:這主要是因為用戶審判機器是根據(jù)它們的行為結(jié)果,而不是行為目的。

無論是面對有偏見的結(jié)果還是不公平的決定,用戶似乎從來沒有真正的在機器身上尋找道德原因,而只是把它們當成功能的載體(只關(guān)乎是否完成其工作)。

這產(chǎn)生了四個新視角詮釋人機交互的有趣行為科學結(jié)論。

二、AI決策和人類判斷

無論是輔助人類做決策,又或是雇傭新員工,識別人臉,我們都聽說過算法偏見是如何影響人工智能的。算法收集的數(shù)據(jù)保留了系統(tǒng)性的判斷偏見(judgmental biases),這有時候會反映在對某些個體的歧視性決策中。

但是人類對機器制造不公平行為有什么感覺呢?相比于人類的歧視,他們會更反感機器嗎?

César Hidalgo試圖通過社會實驗來回答這些問題。他向參與者展示了幾種歧視情況,并要求他們判斷決策在人類或者機器負責下的公平性。這些場景里有: HR在候選人相同資質(zhì)相同的情況下從不選擇某種特定出身的候選人,和警察總是關(guān)押一些相同族群的無辜群眾。

在這些情況下,參與者都認為人類的行為更具有目的性,因此更需要責任感。因為參與者認為人類的行為帶有自己的主觀意愿,所以他們的行為比機器的錯誤判斷更受到指責。然而,當問起他們應(yīng)該由誰來取代這些歧視者,他們的答案更傾向于選擇更正直的人。

三、人類對自動化工作的模糊認知

當面對自動化工作(work automation)或者工作替代(job replacement)的時候,這種模糊性再次出現(xiàn)。Hidalgo通過類似的實驗研究了人們對這種情況的反應(yīng)。
他向參與者講述了一些故事:比如公司員工要么被AI機器人取代,要么被效率更高,更有精力的外國年輕員工取代。Hidalgo詢問參與者在不同情景和不同行業(yè)內(nèi)對此會有什么感受。

令人驚訝的是,參與者更情愿取代他們工作的是機器人,而不是外國人。雖然他們的偏好因情況而異:更接受司機被自動駕駛卡車取代,而不是老師被教學機器人取代,但他們通常同意他們更喜歡自動化而不是另一位工人。

對這類情況的解釋有幾種。參與者可能覺得技術(shù)的發(fā)展是不可避免的,而被外國工人取代會激發(fā)他們的歸屬感。他們可能能更加切身的體會到后者(外國工人)的威脅性,因為這發(fā)生的更為頻繁。人力替代感覺上也更不公平,因為同等資質(zhì)的外國工人憑什么更有權(quán)利獲得工作?

這也解釋了為什么和90-00年間歐美企業(yè)外遷勞動力(到發(fā)展中國家)相比,自動化引發(fā)的情緒抵抗似乎沒有那么的極端。

四、對機器事故的毫不寬容

自動駕駛汽車比人類駕駛員更負責任嗎?

隨著自動駕駛離現(xiàn)實越來越近,我們可能好奇:相比于人類駕駛員,用戶如何看待自動駕駛汽車需要承擔的責任?

為了回答這個問題,Hidalgo和他的團隊把參與者置于各種各樣的道路事故(包含了人類司機或自動駕駛汽車)之中。這些事故的嚴重程度可能取決于內(nèi)在或外在因素,也包含了是傷害司機還是路人的抉擇。

這項實驗首次提出了自動駕駛汽車擔負了巨大的責任。參與者對涉及自動駕駛汽車的事故判斷更為消極,認為它們會造成更嚴重的傷害。其中一個原因是因為他們更容易把自己帶入人類駕駛員的視角(而不是機器的視角),他們更能同理人類司機做出的反應(yīng)(畢竟在自己身上可能也會發(fā)生這樣的情況),尤其這是由外部因素導致的事故(比如一棵樹倒在了路上)。

因此,參與者對造成事故的機器毫不寬容,希望它們更可靠安全。

五、機器的好壞完全取決于結(jié)果

我們可以從這些研究中得出什么結(jié)論呢?

César Hidalgo | How Humans Judge Machines | Talks at Google②(視頻地址見相關(guān)閱讀)

首先,當整體看待受傷害感和行為目的的關(guān)系時,人們認為人類行為比機器行為更帶有目的。然而矛盾的是,參與者仍然會更容易原諒人類的行為,因為他們更容易將人為錯誤視為壞運氣的結(jié)果,而機器錯誤則是需要糾正的錯誤。

當我們在研究行為目的和不公正之間的關(guān)系時,我們發(fā)現(xiàn)了一個更符合人類判斷的事實:對于那些帶有當事人強烈主觀意圖的場景(比如侮辱和歧視),人們顯然會對人類行為做出更為負面的評價。人們認為人類需要為自己的邪惡意圖負責任,而機器則被默認為沒有自己的意圖和目的。另一方面,一些本身不帶有目的的情況(比如交通事故),機器則承擔的責備會更多。因為我們已經(jīng)假定了機器的程序可以避免任何錯誤。

最后通過評估不公正的感知和傷害范圍之間的關(guān)系,我們發(fā)現(xiàn):對涉及人造成的傷害越小,機器就越被視為罪魁禍首;相反,當傷害越大,人類當事人承擔的評價就越為負面。

總之,我們看到了兩種截然不同的判斷模式。

當涉及人類當事人時,觀眾就會通過當事人的意圖來評判他們的行為:他們可以犯錯,但如果居心不良,他們就需要對自己的行為負責。

另一方面,機器的評估標準是行為的結(jié)果:如果它們無法避免破壞性的錯誤,無論發(fā)生的是什么,它們都會被批評。好的一面是,對于一些通常被定性為非常嚴重的情況(歧視或惡意羞辱),因為機器行為不帶有目的,所以常常不被苛責。

但這也意味著,作為設(shè)計師的我們,需要盡量減少數(shù)字服務(wù)和智能應(yīng)用程序可能產(chǎn)生的間接傷害和歧視。因為可沒有人會同情設(shè)計糟糕的算法③。

③譯者注:

設(shè)計師和算法的關(guān)系

由于譯者正好從事自動駕駛行業(yè),所以就簡單聊聊這個話題。可能有人會認為糟糕算法能是程序員的問題,這和設(shè)計師有什么關(guān)系?

但事實上在以正向研發(fā)為主要流程的企業(yè)內(nèi),一個需求落地至少要經(jīng)過產(chǎn)品經(jīng)理,設(shè)計師,研發(fā)和測試四個階段。產(chǎn)品和設(shè)計師需要根據(jù)客戶/用戶的訴求去定義和產(chǎn)品的功能和使用方式,然后研發(fā)才會在設(shè)計的框架內(nèi)去實現(xiàn)這些功能。自然當設(shè)計師遺漏或者忽視一些安全問題時,研發(fā)是無法發(fā)現(xiàn)的,因為在他們的角度,功能的上下文是不明確的,他們只專注于功能本身的研發(fā)。

舉個例子,假設(shè)我們設(shè)計一個工業(yè)園區(qū)內(nèi)使用的遠程自動駕駛汽車遙控器,它的功能是給車輛派發(fā)運貨訂單,并且可以遠程啟動車輛。那么如果設(shè)計師對于使用場景足夠了解,他會發(fā)現(xiàn)如果遠程啟動車輛,突然的啟動可能會對周圍在裝卸貨的工人帶來安全隱患。

所以需要在這個階段提供預(yù)警或者二次鑒權(quán)的操作。而這可能是客戶的原始需求中沒有提及或者客戶覺得麻煩的功能(客戶只想點一次!),如果產(chǎn)品和設(shè)計沒有深入研究,自然研發(fā)無法發(fā)現(xiàn)這樣的問題。這就是我理解的為什么設(shè)計師需要對算法負責。

關(guān)于設(shè)計師的責任這一塊,有興趣的朋友可以看一看前文《負責任的設(shè)計:設(shè)計師應(yīng)該承擔多少產(chǎn)品責任?》。

我也和一些人交流過這個問題,剛畢業(yè)的設(shè)計師覺得,我們需要為用戶負責!我們要站出來說話!在社會中摸爬滾打了多年的設(shè)計師多會認為這非常的理想。確實,從企業(yè)角度來講,道德如果無關(guān)乎企業(yè)生存,是會被自動忽視的(畢竟羅翔老師也說過,法律只是規(guī)定了道德的底線),或者當成一種營銷手段。只有一些和道德高度綁定的行業(yè),比如說自動駕駛行業(yè),設(shè)計師才會有必要,有能力去考慮一些道德問題。

當然,我也不是說設(shè)計師不需要也沒有能力去承擔責任,而是說希望大家能夠多去思考自己的正在做的產(chǎn)品,而不是說盲目的為了kpi或者okr去完成設(shè)計任務(wù)??赡苣愕囊淮屋p微的嘗試就會給產(chǎn)品帶來一些正面的影響。

六、相關(guān)閱讀

①《人類如何評判機器》How Humans Judge Machines

https://book.douban.com/subject/35557225/

②How Humans Judge Machines | Talks at Google

https://www.youtube.com/watch?v=H10-t5hnnw0

*已獲得作者授權(quán),若有翻譯問題,歡迎一起交流~

 

原文名稱:Are users more forgiving of human mistakes than machine errors?

原文作者:Jean-marc Buchert

原文鏈接: https://uxdesign.cc/are-users-more-forgiving-of-human-mistakes-than-machine-errors-5ed2a87f5368

本文由 @第三設(shè)計觀察所 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載

題圖來自 Unsplash,基于CC0協(xié)議

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 不禁感嘆,我們對人類的錯誤好像從不曾包容,但是對于機器,我們的怒氣卻能抑制住,這確實是一個值得反思的問題。

    來自江西 回復(fù)
    1. 畢竟機器不會對你任何情緒宣泄給出反饋。

      來自浙江 回復(fù)
    2. 萬一有一天就會了??

      來自上海 回復(fù)
    3. 那時候估計人就會和機器人對噴了??

      來自浙江 回復(fù)
    4. 和siri基情對線哈哈哈哈哈

      來自上海 回復(fù)
    5. 哈哈哈哈沒錯

      來自浙江 回復(fù)
  2. 寫的好真實,確實是這樣,每次電腦死機的時候也不可能對它破口大罵

    來自江西 回復(fù)