言論愈來愈極端?外媒:Facebook 明知演算法有問題,卻長期漠視

據了解,試圖淡化這些爭議的高階主管,就是 Facebook 全球公共政策副總裁 Joel Kaplan。他曾擔任美國前總統小布希的白宮辦公室主任,是堅定的右翼。
評論
▲Photo Credit: Shutterstock/ 達志影像
▲Photo Credit: Shutterstock/ 達志影像
評論

有沒有覺得,Facebook 內容愈來愈跳不出同溫層、也愈來愈極端了呢?外媒指出,雖然這些情況來自旗下演算法,但 Facebook 高階主管卻長期漠視。

根據《華爾街日報》TheVerge 報導,Facebook 高階主管在 2018 年時,就透過內部提交報告得知旗下的推薦引擎等產品服務,將引發分歧和兩極化,並對社會造成負面影響;但當時領導階層依舊忽略這份調查結果,甚至還試圖規避相關責任。

言論愈分化,用戶使用時間愈長

研究報告發現, 如果 Facebook 沒有針對推薦引擎進行調整,它將會持續提供使用者愈來愈分裂、偏激的內容,而此舉對 Facebook 的好處是:更能吸引用戶眼光,並增加他們使用平台的時間。《華爾街日報》甚至引用另一份 2016 年的 Facebook 內部研究報告指出,那些會參與 Facebook 上極端立場組織的民眾中,有約 64% 的人當初就是因為平台的演算法推薦。

根據了解,試圖淡化這些爭議的高階主管就是 Facebook 全球公共政策副總裁 Joel Kaplan。他以前也曾擔任美國前總統小布希的白宮辦公室主任,屬於堅定的右翼派;而在重要政治議題上,他也具有動搖創辦人暨執行長 Mark Zuckerberg 立場的能力,一直都是爭議人物。

例如:在 Facebook 干預 2016 年美國大選的風波上,Joel Kaplan 就被認為是該事件的其中要角。外界也常批評,Joel Kaplan 的策略是安撫保守派,並且甩開那些被指控有偏見的批評。

曾嘗試「Common Ground」,但計劃夭折

不只如此,2019 年 10 月,Facebook 修訂新的廣告政策,將多數的政治廣告豁免於事實查核之外,因此引來許多批評。而這項備受爭議的廣告政策,據說背後也有 Joel Kaplan 施力的影子。

之前,Facebook 為了讓平台上的言論可以更理性、中立,曾嘗試推行「Common Ground」計畫,希望讓平台使用者透過共同興趣、愛好而聚在一起,避免大家只接觸到愈來愈偏激的同溫層言論。然而,因為這項計畫將會降低 Facebook 推廣兩極化、分歧內容,長期下來,可能降低使用者對平台的參與度,因此該計畫後來被 Joel Kaplan 擱置,團隊不久後也解散。

針對這些爭議,Facebook 發言人表示,Facebook 一直都不斷透過研究了解平台對社會的影響,也不斷積極改進,例如今年 2 月就宣布投入 200 萬美元資金,進行與兩極化、分歧內容有關的獨立研究。

核稿編輯:Mia

延伸閱讀: