Clik here to view.

source:Gisela Giardino
臉書會不會深化不同政黨支持者之間的對立情形?政治學家這幾年來一直在探究這個問題,他們認為,臉書的運作方式可能會使不同立場政黨的資訊被過濾掉,臉書的使用者因而會被困在「政治氣泡」(political bubble)中,只能接收到與自己意識形態相同的內容。現在,臉書自己內部的研究者證實了這項說法,不過,他們也指出,這個問題所造成的影響非常小。
研究人員把這種現象稱為「過濾氣泡」(filter bubble),也就是說,網路公司會利用自家系統的演算法,將個人化的介面提供給使用者。例如,今天你在Google上搜尋某項資訊,Google就會根據他們對你的了解來呈現搜尋結果,因此不同類型的人所得到的搜尋結果就會有所不同。
以臉書來說,好友的動態消息也是會先經過臉書演算法的過濾程序,才會呈現到你的動態消息頁面上,而且這樣的過濾程序是每分每秒都在進行的。在過去,這個過濾程序只會與我們按讚和瀏覽的內容相關,但現在,臉書在這個演算法中加入了「人的要素」,讓資訊的呈現方式也會受「內容的關聯性」影響,而且內容的關聯性會決定資訊最終的呈現方式。
這樣子的改變儘管能夠更貼近臉書使用者的操作習慣,但許多重要的資訊卻可能也一併被過濾掉。例如,臉書可能會過濾不同政黨的資訊,進而使自由黨和保守黨的支持者無法得知與對方有關的資訊,時間一久,不同立場的人能聽到對方聲音的機會就越來越少,因而加深了政治對立的情形。(可以參考〈網路極化了政治嗎?〉一文)
為了分析臉書的動態消息演算法到底會不會深化政治對立的問題,臉書內部的研究人員將使用者分為自由黨及保守黨,由於許多臉書使用者會在個人頁面呈現其政治傾向,研究人員可以很輕易地將樣本分成兩組。接著,研究人員再將不同政治團體分成五個等級,-2代表極偏向保守黨,+2代表極偏向自由黨。在所有資料裡,他們僅選擇每天登入臉書四次以上的美國成年人,大概有一千多位使用者作為研究樣本。
研究人員選擇與政治相關的新聞報導來做為分析的內容,這些新聞報導被臉書使用者分享到他們的頁面上,而分享者的平均政治傾向就決定了該新聞的政治偏向。在這樣的前提下,他們分析從2011年到2012年之間,到底有多少與對立政黨有關的新聞能呈現在使用者的動態消息頁面上,而又有多少新聞是被臉書自己過濾掉了。
在進行了一系列的分析後,臉書的研究人員發現臉書的動態消息演算法真的會導致迴音箱效應(echo chamber effect),使用者傾向收到與自己意識形態相關的內容,因而限制了不同觀點的使用者之間的交流機會,但臉書的研究團隊也特別說明,臉書所產生的迴音箱效應只會造成非常小的影響,大概只會讓使用者接收到對立政治傾向內容的機率減少百分之一而已。
麻省理工學院的政治學家Sinan Aral認為該研究結果證明臉書的過濾泡沫並不會造成多大的影響,但他也指出,我們仍要仔細審視臉書所引發的其他效應,例如,上述的研究仍未推翻三年前的另一項研究,該研究指出臉書可能會引發人們投票時的「強烈群體偏好」。當Sinan Aral被問及臉書對民主的進程到底是有利還是有害時,他表示「現在還未定案」。
資料來源:Is Facebook keeping you in a political bubble? ScienceNow [May 7, 2015]
研究文獻:Bakshy, E., Messing, S., & Adamic, L. (2015). Exposure to ideologically diverse news and opinion on Facebook. Science, aaa1160.