“信息繭房”是個偽概念

9 評論 13536 瀏覽 11 收藏 18 分鐘

一個“概念”是否合理,其標準并不是口口相傳的程度,只有動用理性精神去分析、去拆解,才能接近它的真正本質。

正如馬歇爾·麥克盧漢所言,媒介技術是社會發(fā)展的基本動力,每一種新媒介的產生,都開創(chuàng)了人類感知和認識世界的新方式。步入算法時代,作為技術的算法重構了一切領域的運行規(guī)則和運作模式。

對于內容產業(yè)而言,基于算法推薦的內容分發(fā)機制,不僅可以滿足不同受眾的個性化信息需求,還能大大節(jié)省用戶獲取內容的時間成本,使其能夠最為效率地獲得需要的信息。

但人們并未在這種美好愿景中沉湎太久,對新技術的警惕致使算法分發(fā)不斷受到質疑。因為在算法推薦系統(tǒng)下,算法基于用戶的社交關系和信息偏好,推薦與用戶高度匹配的個性化內容,而這可能會引發(fā)一定的問題。

早在WEB 1.0時代,由信息私人訂制所造成的信息偏食就曾引起眾多學者和評論家的擔憂。他們認為,個性化信息的盛行將導致民眾只關心他們感興趣的內容,從而侵蝕社會的共識基礎,危害民主社會發(fā)展。

“信息繭房”(Information Cocoons)這一概念就在此時興起,用以描述信息偏食所造成的風險。經過長時間的使用,這個概念似乎已經成為一種定理,當算法時代來臨,它也自然而然地被挪用在算法推薦的內容分發(fā)機制之上,并逐漸成為后者的“原罪”。

問題在于,盡管此概念被沿用已久,但我們似乎從未認真考慮它的正確性。實際上,正因為它對算法分發(fā)的指責如此嚴厲,才應該更謹慎地對此加以審視:伴隨技術條件的更新以及媒介環(huán)境的變革,這一誕生于WEB 1.0時期的概念是否還具備適用性?它是否還能準確描述算法分發(fā)的負面影響,以及互聯網內容生態(tài)所罹患的不良癥候呢?

一、“信息繭房”的前世今生

“信息繭房”這個概念,最為人熟知的來源是美國法學教授凱斯·桑斯坦的《信息烏托邦》。該書出版于2006年,盡管為時尚早,但彼時信息的個人化、定制化已經成為一大趨勢。

早在1995年,比爾·蓋茨就曾預言:在未來世界,量身定制的信息將自然增加,每個人都可以編排一份完全符合自己興趣的“日報”。而在次年出版的《數字化生存》一書中,學者尼葛洛龐帝也預言了個性化定制的“我的日報”(The Daily Me)即將出現。

桑斯坦非常認同“我的日報”,并在此基礎上進一步提出“信息繭房”的概念。他指出,在互聯網時代,伴隨網絡技術的發(fā)達以及信息量的劇增,每個人都能隨意選擇關注的話題,并可以根據自己的喜好打造一份個人日報,但這種信息選擇行為將會導致“信息繭房”的形成。

他所謂的“信息繭房”,是指傳播體系個人化所導致的信息封閉的后果。當個體只關注自我選擇的或能夠愉悅自身的內容,而減少對其他信息的接觸,久而久之,便會像蠶一樣逐漸桎梏于自我編織的“繭房”之中。桑斯坦認為,這將導致視野偏狹和思想的封閉甚至極化,進而會加強偏見并制造出非理性的極端主義,直至侵害政治民主。

嚴格來說,人們更愿意接觸自己感興趣的內容,這受人的天性或者說思想惰性的制約,而技術的發(fā)展確實有加強這一傾向的趨勢。正因為契合了對此現象擔憂的社會心理,“信息繭房”這一概念逐漸被大眾認可并被廣泛使用。

但桑斯坦提出“信息繭房”時,算法還是個模糊的概念。當算法技術逐漸發(fā)展成熟,并成為內容分發(fā)的通行規(guī)則之后,人們驚奇地發(fā)現:“信息繭房”似乎更能貼切地描述算法所造成的影響。

在傳統(tǒng)媒體時代,媒體機構面向大眾生產新聞,并依賴人工編輯的方式進行分發(fā),并無明確的受眾細分意識。而基于算法推薦的內容分發(fā),以用戶的個人特征為標準進行信息篩選,并向用戶推薦與其興趣和價值觀高度匹配的個人化信息,由此形成“千人千面”的內容消費形態(tài)。

從積極的方面來看,這種分發(fā)方式使信息傳播更加扁平化,各類信息內容的顯現度與曝光量由算法規(guī)則所決定,受眾可以自由選擇信息,削弱了專業(yè)媒體的內容把關能力和議程設置能力。

但與此同時,也有越來越多人擔心,算法推薦機制正通過個性化的名義背離多元性的信息傳播方式:它是否會過分迎合用戶偏好,讓我們只能看到自己想看到的東西,只聽到自己認同的觀點,進而導致信息封閉?

在這種情況下,“信息繭房”概念又被重新提起,用以批評算法分發(fā)所導致信息接收窄化、信息結構失衡問題。無論是用戶還是內容供應商,都開始認同這一概念。更多人將其與網絡場域的意見分裂、極端化以及社會整體價值觀離散化聯系在一起,以證明“信息繭房”對社會共識基礎的侵害。

二、“信息繭房”真的合理嗎?

表面上看起來,對“信息繭房”的擔心似乎不無道理。算法分發(fā)機制下,決定內容的標準是用戶的個人特征,算法將篩選后的信息聚集起來再分發(fā)給用戶,確實有導致信息封閉的危險。但關鍵是,我們已經熟稔于使用這個概念并日益將其標簽化,卻忘記思考一個問題:它真的有理可依嗎?

實際上,除了評論家們空口白牙的指責,信息繭房這一概念在學術界鮮有量化數據的支撐。相反,已有的許多研究證明,信息繭房的負面效應其實不足為懼。

試想一下,如果我們要論證“信息繭房”是否存在,應該怎么入手?具體而言,有兩個呈遞進關系的必要條件:

1. 從信息消費維度,證明人們只通過有限的媒介渠道(這些媒介還必須是算法分發(fā)型)接觸信息;

2. 從受眾心理維度,論證有限的信息接觸,導致了受眾觀念的單一化和極端化。

后者偏長效性的心理測量,操作更加復雜,因此相關研究較少。更多現有的研究是從第一個維度切入,并證明“信息繭房”這個概念根本無法成立。

比如,2016年Seth Flaxman等學者進行了一項很有代表性的實驗[1]。研究人員選擇了5萬名參與者,要求他們報告自己最近閱讀、觀看或收聽的新聞媒體,同時通過電子手段直接監(jiān)測和記錄他們的實際新聞消費行為,包括網頁瀏覽歷史等。通過兩項數據的對比,研究最終發(fā)現人們實際的媒體消費比他們自己想象中更具有多樣性,也就是說,人們實際并沒有陷入“信息繭房”中,但他們可能會裝作自己陷入了其中。

其實,即便沒有這些研究成果作支撐,僅從常識或邏輯的角度切入推斷,我們也會發(fā)現信息繭房只不過是個一戳就破的“泡泡理論”:

1. 信息偏食是人的本性,在傳統(tǒng)媒體時代就開始有了

大部分情況下,人們只會主動接觸或選擇相信符合他先前觀念的內容,這是人性使然。

在傳播學里,描述此現象的理論是“選擇性接觸”假說,即受眾習慣于接觸與自己原有態(tài)度、觀點、立場相吻合的信息,而盡量避開與自己觀點、價值觀念相悖的內容,以求得心理的平衡與和諧。

眾多研究支持這一假說,比如學者Garrett在2009年的一項研究就發(fā)現,受試者更傾向于從符合其政治觀點的出口選擇、接收新聞內容[2]。

所以,如果說有什么“繭房”,那也只是人性中趨利避害的元素所編織的繭房。換言之,思維封閉的“鍋”應該甩給人類的思維惰性,而不是算法分發(fā)。

回想一下在沒有個性化算法的時代,假如你買一份雜志或報紙,遇到不感興趣的內容同樣只會草草翻過,并不多看一眼,而算法分發(fā)只是為你節(jié)省了跳過不感興趣內容的時間。

2. 網絡并非無菌室,而是蕪雜交融的信息環(huán)境

“信息繭房”的支持者認為,在傳統(tǒng)媒體時代,報紙、電視能提供無篩選的新聞信息,即便人們不專門去看,也可以不經意地瞄到、看到一些未曾預料的信息,而算法分發(fā)消滅了這種可能性。

此類觀點忽略了一點——互聯網的低準入門檻降低了信息獲取的成本,不同類型的內容自由流通,人們能接觸到比過往更廣泛的信息。

從這個角度出發(fā),互聯網只會打破信息封閉,降低“信息繭房”出現的概率。

而且這種觀點有些過于理想化甚至有些幼稚,因為它把互聯網視為僅由算法分發(fā)機制支配的信息環(huán)境。但實際上,互聯網是多種媒介聚合的平臺,新聞網頁、視頻網站、社交媒體、新聞聚合APP等媒介并存,這些渠道采取了不同的信息分發(fā)方式,也都會對人們的觀點和思維產生影響。

回想一下自己的信息消費習慣,我們不太可能只垂青某一個信息端口。無論是門戶網站、微信公眾號、朋友圈、微博還是各種新聞APP,我們總會接觸到不同的觀點和信息源。各種類型的內容已經無孔不入地侵入到人們的生活中,而我們會主動或在不經意間與它們保持接觸,卻不太可能對自己興趣之外的事情充耳不聞。

3. 信息偏食的后果真的有那么嚴重嗎?

退一步說,假設未來某一天,所有的信息傳播渠道都被算法分發(fā)機制所壟斷,并且它只推送符合人們興趣的內容,那后果真的會很嚴重嗎?

我們可以大體想象一下,假設一個愛好歷史的人,他對歷史研究充滿興趣;但如果因為算法分發(fā),他錯過了有關NBA的賽事信息或者是某明星的花邊新聞,對他個人來說,似乎并沒有什么損失。

反倒是如果真像“信息繭房”批評者所期待的那樣,為這個人推送所有領域的最新動態(tài),似乎并不現實、也很不必要。這不但犧牲了算法聚合信息、匹配分發(fā)的效率性,讓用戶無法找到自己需要的信息,還可能引發(fā)后果更為嚴重的“信息冗余”或“信息爆炸”。

三、為什么人們愿意相信“信息繭房”?

誠然,算法對當下現實社會的影響無所不在并且無比強大。當算法推薦被用于商業(yè)領域,有利于細化消費市場,幫助消費者提高效率、節(jié)省時間;而當這種模式觸及內容分發(fā)、牽涉到知識與思想領域,就容易引起人們的警惕。

但“信息繭房”這一并不是特別合理的概念之所以盛行,顯示了我們似乎對“算法的權力”過分戒備,以至于忽視了我們正享受著算法帶來的紅利。

溯其原因,可以歸結為人類的一貫思維方式:人們天生懼怕新事物以及它所帶來的改變。

回顧媒介技術發(fā)展史,從口語到文字,再到電子媒介時代的廣播、電視、計算機,幾乎每一種新技術的出現都會引發(fā)人們的恐慌與質疑。

在《斐德羅篇》中,蘇格拉底斥責文字損害人類記憶,呼喚重回口語時代;廣播、電視出現后,評論家又抨擊電子媒介會損害人類形成于印刷時代的、縝密理性的思維模式;而當計算機面世之后,它更被打造成洪水猛獸一樣的可怕形象,其中最有代表性的聲音,當屬尼古拉斯·卡爾在《淺薄》一書中對網絡導致人類思維退化的批判。

我們現在可能覺得這些批評太過杞人憂天,但與之同理,當宛若黑箱一樣的算法技術日益成熟并牽涉到內容分發(fā),人們又開始害怕人類的思考能力被限制、獨立意志被支配、政治民主被侵害。

在某種意義上,這是與過往對新技術的批判一脈相承的,它源于對未知事物的不確定性以及由此引發(fā)的恐懼心理。

而“信息繭房”所描述的癥結,其實恰恰是算法還不夠成熟的體現。

成熟的算法能夠為人們提供各種類型的有益信息,在提高生產、生活效率的同時,又能促進人們視野開闊、思想進步,這才是技術向善的體現。

面對算法分發(fā)可能存在的信息偏向問題,信息供應商也開始采取各種手段進行糾正,比如新聞APP“跨越分歧的閱讀”(Read Across the Aisle)、Chrome瀏覽器“逃離泡泡”插件,以及微信的“看一看”功能也在以社交推薦的方式對信息偏向進行技術糾偏。

無論如何,“信息繭房”是一種赫胥黎式的警言,它提醒我們應避免技術對人類的異化。但過分地夸大新技術的負面效應,只會阻礙技術進步。

即便是提出“信息繭房”概念的桑斯坦也在《信息烏托邦》中指出:“新的傳播技術正在使事情變得更好而不是更糟”。隨著技術的進步和人類認知的不斷深化,我們有理由相信,信息偏向的問題將會得到妥善的解決。

參考文獻

①Flaxman, Seth,Sharad Goel, and Justin M. Rao.2016. “Filter Bubbles, Echo Chambers, and OnlineNews Consumption.” Public Opinion Quarterly 80(1): 298–320.

②Garrett, R.Kelly. 2009. “Echo Chambers Online? Politically Motivated Selective Exposureamong Internet News Users.” Journal of Computer-Mediated Communication14:265–85.

 

作者:蘇倫,公眾號:正經研究

本文由 @蘇倫 原創(chuàng)發(fā)布于人人都是產品經理。未經許可,禁止轉載

題圖來自 Unsplash,基于 CC0 協(xié)議

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 論據蒼白的辯解。

    來自浙江 回復
  2. 我覺得擬態(tài)環(huán)境或者說信息繭房都是針對媒體/內容分發(fā)者的。
    從內容受眾的角度分析,認為受眾只要自己動動手就能打破信息繭房,
    這和認為窮人只要努努力就能擺脫貧困的觀點何其相似也。

    來自北京 回復
  3. “信息繭房”的這個概念的提出,更多的應該是讓人們關注并預防這類事實的發(fā)生,避免在自己的信息世界里沉淪。這個概念是矛盾的,如果沒有這個概念,大家按照算法的發(fā)展就有很大的可能出現“信息繭房”。但當這個概念被大眾所認知后,大家都盡量避免出現這個問題,可能這個理論就又成了“偽概念”。
    基于此,我認為 “信息繭房”是一個概念,但這個概念并沒有“偽”與“真”之分。如果非要給一個概念加上“偽”或“真”的標簽,那是不是又有為某些算法代言的嫌疑呢?

    來自四川 回復
  4. 無限放大人們對信息的選擇性:當所有媒介為了迎合一個人的胃口時都采用了同樣的算法,而這些算法又具有智能性,可能會把你之前忽略的某些信息標記為“無用”信息而過濾,久而久而之把這種選擇性無限放大,就像昏君只愛聽奸臣的諂媚,奸臣會由著昏君的性子只說諂媚的話,這個人獲得的絕大部分信息都將局限在自己的“繭房”里。
    信息壟斷,關于這一點危害就更大了,蒙蔽人們的雙眼,讓人們自我束縛。奸臣壟斷信息,讓昏君問出“何不食肉糜”這樣的故事,歷史上有太多太多。而當下的媒介算法又具有這樣的能力,而我們獲取信息的媒介的算法又趨同,雖然它不會像定時詐蛋突然baozha,但卻會一點點一天天的慢慢改變人們對信息的獲取,最終改變人們的認知。

    來自四川 回復
  5. 反對作者的部分觀點。作者的核心觀點認為:造成信息繭房的出現是由于人們自身的選擇性,并認為當下有很多的信息獲取渠道,不可能造成信息繭房,而人們的相信“信息繭房”是因為“人們天生懼怕新事物以及它所帶來的改變”。
    受思維惰性的影響人們更喜歡看自己關注的東西,這是與生俱來,就像小時候比起看課本我們可能更喜歡看漫畫書,這是對信息的一種的選擇性,人性使然,無可厚非。
    但人們相信“信息繭房”更多的是因為害怕信息媒介的這種算法把人的這種惰性無限放大和對信息壟斷。

    來自四川 回復
  6. 不僅在減少選擇的時間,也在減少選擇的機會,不覺得是個偽概念。

    來自四川 回復
  7. 注意力稀缺與技術向善應該達到平衡。

    來自上海 回復
  8. 剛剛還不lqqqqqqqaaāaJcebb沒
    hh。 sFv 蠶寶寶變成 v 從男 mbmmbt

    回復
    1. 我女兒用了手機

      回復