今天,我們被算法「控制」了嗎?

1 評論 5155 瀏覽 12 收藏 18 分鐘

編輯導(dǎo)讀:外賣員小哥經(jīng)常與交通事故一起出現(xiàn)在新聞上,這個群體的“出鏡率”頗高。昨日,一篇描寫外賣配送員被算法“逼迫”的文章引起了廣泛關(guān)注。人們同情外賣員的同時,也在思考,算法到底怎樣才算是對人類有益?本文作者圍繞算法的影響,進行了深度的思考,希望對你有幫助。

數(shù)字經(jīng)濟時代,算法究竟應(yīng)該是怎樣的存在?

近日,一篇《外賣騎手,困在系統(tǒng)里》的文章刷屏,算法的“逼迫”,導(dǎo)致外賣員成為了交警部門數(shù)據(jù)背后的高危職業(yè)。餓了么隨后宣布將發(fā)布“為騎手多等5/10分鐘”的功能,這樣的危機公關(guān)不可不謂經(jīng)典,但真正的問題不在消費者愿不愿意多等這五、十分鐘,而是機器算法在促進生產(chǎn)力的發(fā)展和財富累積的同時,也存在著明顯的倫理、法律和制度性問題。

我們推薦劉志毅的這篇深度文章,能夠幫助人們更好的理解算法背后的利益和倫理博弈。

在國內(nèi)眾多涉及數(shù)據(jù)倫理以及AI倫理的議題之中,數(shù)據(jù)的邊界、壟斷和法律問題屢屢被人提起,而算法相關(guān)的研究則少之又少。

事實上,在全球的前沿人工智能的跨學(xué)科研究中,越來越多的學(xué)者都在關(guān)注算法的作用,討論代碼與法律之間的關(guān)系,并開始擔憂算法會不會動搖關(guān)于現(xiàn)有人類社會法律的基本框架與概念——尤其是在公共領(lǐng)域中的使用的倫理和風(fēng)險問題。

與此同時,伴隨著區(qū)塊鏈等技術(shù)的興起,科技烏托邦的理念又再度興起,來自于硅谷和中關(guān)村的科技精英們,又開始討論“代碼讓世界更加美好”的概念。

隨著人工智能的發(fā)展,我們認為:雖然智能時代的算法衍生出來的數(shù)字化世界會給現(xiàn)實的經(jīng)濟和社會帶來巨大的福利和便利,但是科技崛起之后也需要必要的監(jiān)管。機器算法在促進生產(chǎn)力的發(fā)展和財富累積的同時,也存在著明顯的倫理、法律和制度性問題。

本文就是基于“算法規(guī)制(Algorithm regulation)”的概念來理解算法的特點、重要性以及帶來所帶來的道德與倫理風(fēng)險,弄清楚算法決策與算法規(guī)制的相關(guān)倫理議題的思考。

一、算法規(guī)制

人們之所以要承擔這樣的責(zé)任,是因為每個個體的行為都促成了這樣不正義的結(jié)果。

首先,要理解算法規(guī)制(Algorithm regulation)的定義范疇,就首先要理解算法的定義。

按照塔爾頓·吉萊斯皮(Tarleton Gillespie)的概念,算法廣義上可以理解為“是基于特定的計算將輸入數(shù)據(jù)轉(zhuǎn)換為所需的輸出的編碼程序”。

這個概念里強調(diào)的是:數(shù)據(jù)輸入輸出可以由人類或者機器來執(zhí)行,同時算法可以由人創(chuàng)造或者機器橙黃早,或者機器運行過程中自我修改而生成。

而算法規(guī)制這一概念廣為人知,是由硅谷企業(yè)家奧萊利(O’Reilly)在2013年提出的,后來的學(xué)者們也在不斷的完善這個概念。

簡而言之,算法規(guī)制是一種以算法決策為手段的規(guī)制治理體系,而算法決策指的是通過算法生成指示系統(tǒng)來做決策,可以理解為算法治理的工具。而算法治理,則是數(shù)字化治理的重要手段和方式,也是建立數(shù)字化治理體系的基礎(chǔ)措施。

按照英國伯明翰大學(xué)法學(xué)院和計算機學(xué)院的教授凱倫·楊(Karen Yeung)的定義,算法規(guī)制是指通過算法來規(guī)制某個領(lǐng)域的決策系統(tǒng),通過從受規(guī)制環(huán)境相關(guān)的動態(tài)組件實時和持續(xù)的產(chǎn)生和搜集數(shù)據(jù),通過知識的計算生成以及智能化的應(yīng)用,實現(xiàn)三個方面的目標:

  1. 第管控特定應(yīng)用的風(fēng)險;
  2. 改變用戶群體的行為;
  3. 實現(xiàn)自動優(yōu)化的操作,來推動系統(tǒng)預(yù)定目標的形成。

事實上,算法規(guī)制在數(shù)字經(jīng)濟領(lǐng)域無處不在。例如我們看到類似今日頭條這樣的新聞應(yīng)用會通過推薦算法來監(jiān)管用戶的發(fā)布和瀏覽行為,或者抖音這樣的短視頻平臺會通過算法決策系統(tǒng)來實現(xiàn)內(nèi)容的發(fā)布和流量的管理。

我們可以認為算法規(guī)制體現(xiàn)了一種風(fēng)險管理的技術(shù)機制,這種機制的覆蓋范疇從使用應(yīng)用的個體到某個平臺的所有群體,其作用就是在設(shè)定特定目標下利用算法系統(tǒng)指導(dǎo)和影響這些群體。

可以看到:算法規(guī)制的模式是一種基于“設(shè)計”思想的控制模式,從治理層面來說,算法規(guī)制可以看作一種協(xié)調(diào)數(shù)字生態(tài)中特定活動的社會秩序的輸出形式。

正因為如此,算法規(guī)制在學(xué)術(shù)界被認為是一種雙刃劍。

一方面算法規(guī)制能夠做出精準的行為預(yù)測,可以為管理者提供非常好的循環(huán)干預(yù)機制:對于公共行為主體來說,可以通過對大數(shù)據(jù)的應(yīng)用來解決社會治理問題,對于私人主體來說可以借助數(shù)據(jù)來提供個性化和定制化的服務(wù)。

另一方面,算法規(guī)制存在著諸如黑箱問題、利益和風(fēng)險不對稱等問題,而且由于算法技術(shù)發(fā)展的超前性,新科技的創(chuàng)造者具備不對稱的信息和技術(shù)優(yōu)勢,能夠按照自身利益的需求來塑造在平臺上的算法規(guī)制邏輯和社會系統(tǒng),這帶來了監(jiān)管的不確定性。

這里需要提到的是重要的女性政治理論家艾麗斯·M·揚的結(jié)構(gòu)不正義理論,她認為社會進程使得人們系統(tǒng)性的受到被支配或者被剝奪其發(fā)展和行使才能的威脅,同時,這些社會進程使得另一群人能夠支配他人或者擁有廣泛你的機會來發(fā)展和行使他們的權(quán)力。

這個理論為我們提供了理解算法規(guī)制的重要視角,就是我們?yōu)榱吮苊膺@樣的結(jié)構(gòu)性不正義的出現(xiàn),我們需要轉(zhuǎn)向社會關(guān)聯(lián)責(zé)任模式。

人們之所以要承擔這樣的責(zé)任,是因為每個個體的行為都促成了這樣不正義的結(jié)果。

換言之:我們并不是追溯某個個體或者團體的回顧性責(zé)任,而是通過主動減少、修正以及預(yù)防的方式來承擔這樣的前瞻性責(zé)任。

由于這種責(zé)任是通過社會結(jié)構(gòu)和進程存在于人們的關(guān)聯(lián)之中,它就具備了共享性的特質(zhì),人們通過集體行為承擔了社會責(zé)任。

通過這樣的方式在算法規(guī)制中去體現(xiàn),可以讓我們能夠?qū)λ惴ㄒ?guī)制的意義和價值得到更深刻的思考。

二、科學(xué)的本質(zhì)

正因為如此深度學(xué)習(xí)為代表的人工智能算法才會引發(fā)研究者的疑慮,因為這個過程中人類的參與程度會越來越低,因此人們很難對算法產(chǎn)生的負面結(jié)果的道德責(zé)任負責(zé)。

事實上,我個人認為,這其中涉及了如何理解科技的本質(zhì)——如果僅僅從創(chuàng)新視角去理解的話,則很容易關(guān)注到科技變革帶來的規(guī)制行為的滯后性,從而對科技的發(fā)展產(chǎn)生疑慮。

如果我們從社會屬性來理解技術(shù),則打開了新的視角:

科技的發(fā)展(包括算法的發(fā)展)不是無水之源、無根之木,它是社會發(fā)展過程中產(chǎn)生的技術(shù)組合,因此科技的演化就會和社會結(jié)構(gòu)以及相應(yīng)的監(jiān)管系統(tǒng)產(chǎn)生耦合,從而適應(yīng)社會的發(fā)展。

從某個角度來說,過去數(shù)十年中國的數(shù)字經(jīng)濟發(fā)展有賴于數(shù)字化技術(shù)與中國的創(chuàng)新社會環(huán)境之間的“共生關(guān)系”,創(chuàng)新的技術(shù)與社會的環(huán)境相互影響并動態(tài)交互,伴隨著時間推移和演化實現(xiàn)了共同發(fā)展。

換言之,算法規(guī)制是一種算法監(jiān)管的技術(shù),也是一種社會現(xiàn)象,構(gòu)建了一套“共生系統(tǒng)”,從而實現(xiàn)了復(fù)雜的社會與技術(shù)之間的管理。

這種管理機制擁有以下特點:

第一,算法規(guī)制是通過高速的分布式信息處理機制進行機器學(xué)習(xí)實現(xiàn)的。這其中比較典型的包括分類系統(tǒng)、推薦系統(tǒng)等等,通過這類人工智能的算法可以實現(xiàn)大規(guī)模的社會治理機制的落地,所面向的數(shù)據(jù)集也往往是大型非結(jié)構(gòu)化數(shù)據(jù)集,且在這個過程中算法會持續(xù)的更迭從而帶來不確定的效果。

由于這樣的機制非常依賴數(shù)據(jù),因此諸如GDPR這樣的數(shù)據(jù)治理和保護的機制就會出現(xiàn),成為決定算法規(guī)制等機制發(fā)展的重要文件。

第二,算法規(guī)制通過大型自動化技術(shù)系統(tǒng)實現(xiàn)落地,由于其提供的復(fù)雜算法系統(tǒng)正在滲入社會生活的各個方面,因此關(guān)于它的研究往往涉及到跨學(xué)科的研究工作。

無論是經(jīng)濟學(xué)界所提到的“監(jiān)視資本主義”還是法律界提到的“機器人自主權(quán)”的問題,或者是我們所關(guān)心的機器倫理的問題等,都體現(xiàn)了這一問題的復(fù)雜性。

目前學(xué)術(shù)界和產(chǎn)業(yè)界雖然對算法的規(guī)制和管理的重要性達成了共識,但是在具體應(yīng)對不同問題上則還是眾說紛紜,這對現(xiàn)有的數(shù)字經(jīng)濟的治理體制帶來的非常大的挑戰(zhàn)。

第三,算法規(guī)制需要相應(yīng)的風(fēng)險控制機制來應(yīng)對,以避免產(chǎn)生類似算法系統(tǒng)偏見即算法歧視等問題,不同的偏見和算法歧視已經(jīng)成為數(shù)字化政策領(lǐng)域研究的熱點問題。

無論是在算法決策過程中的算法決策機制存在的偏見,還是其訓(xùn)練的數(shù)據(jù)集本身所存在的偏見,都會帶來機制的不公和對個體的損害。

除此之外,算法的模擬行為也需要控制一定的限度,如果過度使用算法來仿照人類的行為模式和外觀,就會引發(fā)欺騙或者其他的社會道德問題。

基于以上的思考,我們可以將算法規(guī)制理解為一種風(fēng)險管理系統(tǒng),這個系統(tǒng)是對于算法決策過程中可能會引發(fā)的技術(shù)與社會的嵌入和耦合后的風(fēng)險的管理。

那么,我們在討論算法對決策影響時,真正關(guān)注的是什么呢?

從法學(xué)角度來說,我們可以將算法決策系統(tǒng)對于規(guī)制行為的影響理解為三個層面的問題:

第一,對于決策程序自身的風(fēng)險擔憂,這類擔憂主要集中于對決策責(zé)任對象的擔憂。

由于機器學(xué)習(xí)的算法過程中其生成的邏輯基礎(chǔ)有部分是人類完全無法實施有意義的監(jiān)督和干預(yù)的,且機器能夠在短時間內(nèi)處理成千上萬參數(shù)的變化,因此人類在算法運行過程中喪失了信息的優(yōu)勢,且對于結(jié)果的不可預(yù)料性也無法進行控制,因此如何在決策過程中加入更多的人類監(jiān)管因素非常重要,我們所討論的“負責(zé)任的人工智能”就是基于這個視角去討論的。

如果機器無法承擔責(zé)任,而與此同時算法的決策剝奪了受影響力個體表達和反駁的權(quán)利,就會剝奪了某些個體的“陳情權(quán)”等基本權(quán)利,導(dǎo)致不正義的出現(xiàn)。

歐盟提出科技的治理必須是一項可以執(zhí)行的權(quán)利,其基礎(chǔ)出發(fā)點就在于必須在這個過程中體現(xiàn)公平和正義的可執(zhí)行性,而不是算法自動化的集成。

第二,對于決策程序所導(dǎo)致結(jié)果的風(fēng)險擔憂,即對算法系統(tǒng)的安全可靠性的質(zhì)疑。比如無人駕駛等算法決策系統(tǒng)帶來的巨大風(fēng)險,以及內(nèi)容推薦系統(tǒng)帶來的偏誤。

我們所熟知的劍橋分析公司與Facebook的丑聞體現(xiàn)了媒體內(nèi)容的偏差是如何左右民主選舉的進程的。除此之外,算法決策所產(chǎn)生的不公和歧視也可以理解為結(jié)果的偏見和不準確,也是引發(fā)人們對算法決策系統(tǒng)擔憂的重要體現(xiàn)。

第三,對算法決策系統(tǒng)帶來的個性化服務(wù)的風(fēng)險擔憂,國外的電商平臺亞馬遜推出的商品算法的推薦引擎以及社交平臺Facebook所使用的動態(tài)消息機制都屬于這類個性化服務(wù)的代表。

這樣的服務(wù)通常是免費的,通過對大量用戶行為信息的持續(xù)追蹤以后,對其中的信息進行分類和提煉,為用戶打上不同的標簽,從而實現(xiàn)所謂“個性化服務(wù)”。

這類個性化服務(wù)通常意義上并非真實的用戶興趣和愛好,而是基于算法所推斷出來的興趣和愛好。換句話說,它們優(yōu)化的是商業(yè)系統(tǒng)的商業(yè)利益的結(jié)果,而不是用戶自身的興趣,沒有去保障用戶受到誤導(dǎo)以后的行為偏差,也很難保障用戶的長期利益。

最后我們再補充下關(guān)于算法偏見的分析:

在算法規(guī)制的所有對象中,算法的偏見是最具備典型性的,實際上這個概念從上世紀90年代就有了相關(guān)的討論。

在這個過程中,我們主要關(guān)注在沒有人類介入的情況下處理和分析輸入數(shù)據(jù)的機器,以及機器通過數(shù)據(jù)處理和分析得到的正面和負面的結(jié)構(gòu)。

換句話說:算法偏見關(guān)注的是非人類行為在應(yīng)用算法時可能存在的偏見。正因為如此,深度學(xué)習(xí)為代表的人工智能算法才會引發(fā)研究者的疑慮——因為這個過程中人類的參與程度會越來越低,因此人們很難對算法產(chǎn)生的負面結(jié)果的道德責(zé)任負責(zé)。

當然,人工智能系統(tǒng)及算法并不能全然獨立于人類——因為他們的運算背后必須有人的參與和輸入,抽離于特定場景的算法毫無意義。

由于人的道德是主觀性的,關(guān)注的是個人的道德責(zé)任,而算法偏見則是客觀性的,存在一定的道德缺口,這是為什么這類問題難解的原因。

關(guān)于這類問題的解決,會涉及到諸如“分布式責(zé)任”等新的范式的研究,限于篇幅我們在這不做詳細闡述,這里只是強調(diào)算法偏見為代表的問題的出現(xiàn),需要通過一定的算法規(guī)制來解決。

以上就是我們對算法規(guī)制必要性和算法決策所帶來的道德問題的討論。

事實上算法規(guī)制背后的數(shù)據(jù)倫理議題,本質(zhì)上就是算法成為社會與技術(shù)系統(tǒng)的一部分以后,我們?nèi)绾伪苊馑惴ㄋ鶎?dǎo)致的復(fù)雜的社會系統(tǒng)風(fēng)險的議題。

 

作者:劉志毅,數(shù)字經(jīng)濟學(xué)家、商湯智能產(chǎn)業(yè)研究院主任;微信公眾號:底層設(shè)計師(ID:Bottom-upDesigner)

來源:https://mp.weixin.qq.com/s/iEGbHzxiJGGvYVJnbvLC-Q

本文由 @底層設(shè)計師 授權(quán)發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。

題圖來自 Unsplash,基于CC0協(xié)議。

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 每天都在被算法控制,抖音上面某類視頻多看幾秒都會在接下來多推送幾條相似的,算法太強大

    來自安徽 回復(fù)