信息爆炸時代,多項推薦算法成為人們高效獲取有用信息的研究也重要途徑。伴隨而來,表明“算法制造信息繭房”“算法導致社會極化”等論調(diào)被提出。撕裂社會算法算法真相果真如此嗎?產(chǎn)生Science、Nature等權威期刊刊載的極化多項研究結(jié)果,向這些論調(diào)發(fā)起了有力挑戰(zhàn)——撕裂社會的多項從來不是算法,沒有算法也會產(chǎn)生極化。研究也
首先,表明“算法導致信息繭房”的撕裂社會算法算法核心前提,在實證中存在顯著脆弱性。產(chǎn)生路透新聞研究所的極化文獻綜述顯示,真實的多項“信息繭房”極為罕見,僅有約6%到8%的研究也公眾處于黨派新聞的“回音室”中。多數(shù)依賴搜索引擎和社交媒體獲取信息的表明用戶,反而能接觸到更廣泛的信息來源,算法的“探索”機制會主動推送用戶潛在感興趣的新內(nèi)容,形成“自動的機緣巧合”。
抖音安全與信任中心公開的算法原理也印證了這一點:如果算法一味迎合用戶已有的興趣,會導致內(nèi)容越來越同質(zhì)化,這會使用戶很快感到無聊并離開平臺。因此,算法必須在“利用”和“探索”之間保持平衡,主動將用戶可能感興趣的新內(nèi)容推送給用戶,以保持新鮮感和用戶黏性。
更具顛覆性的發(fā)現(xiàn)是,打破“繭房”未必能緩解極化,反而可能適得其反。杜克大學社會學家克里斯·貝爾的實地實驗極具說服力:他招募立場堅定的民主黨和共和黨推特用戶,付錢讓他們關注一個轉(zhuǎn)發(fā)對立陣營言論的“機器人”賬號,強行打破信息壁壘。然而一個月后,參與者非但沒有變得溫和,政治立場反而更加極端。
阿姆斯特丹大學的“生成式社交模擬”研究進一步證實了這一結(jié)論:研究團隊用多個平臺的大語言模型生成500個帶有真實選民特征的虛擬用戶,構(gòu)建無廣告、無個性化推薦算法的極簡社交平臺,僅保留發(fā)帖、轉(zhuǎn)發(fā)和關注功能。經(jīng)過每次試驗一萬個周期的運行,無論使用哪個平臺的大語言模型,平臺都不可避免出現(xiàn)回音室效應、影響力集中和極端聲音放大三大問題。
為尋找解決方案,阿姆斯特丹大學的研究團隊測試了六種主流干預策略,結(jié)果更令人深思。被不少人視為“解藥”的“按時間順序推送”,雖能降低關注度不平等,卻顯著加劇了極端內(nèi)容的傳播;平衡黨派內(nèi)容的橋接算法在提升觀點多樣性的同時,反而擴大了關注度差距;其他如淡化主流內(nèi)容、隱藏統(tǒng)計數(shù)據(jù)等措施,要么效果微乎其微,要么弊大于利。這表明,即便剝離算法干預,社交媒體的極化現(xiàn)象依然會因人類社交的固有邏輯自發(fā)產(chǎn)生——情緒化的極端內(nèi)容更易獲得轉(zhuǎn)發(fā),轉(zhuǎn)發(fā)帶來的關注又進一步強化其傳播優(yōu)勢,形成惡性循環(huán)。
Nature刊載的2021年的一項研究則從時間維度揭示了極化的真正驅(qū)動力。多倫多大學團隊分析Reddit平臺14年間51億條評論發(fā)現(xiàn),2012至2015年平臺政治極化程度穩(wěn)定,2016年美國大選期間卻突然驟升,且這一變化主要由新用戶推動,老用戶立場幾乎未變。這證明,社會極化更多是外部政治事件和現(xiàn)實社會分裂的映射,與平臺算法或使用時長無顯著關聯(lián)。
這些研究共同指向一個結(jié)論:算法既非社會極化的“元兇”,也非解決問題的“萬能藥”。它只是一個中立的技術工具,映射出了人類本性中“選擇性接觸”的傾向和社會結(jié)構(gòu)中已有的裂痕。與其將社會撕裂歸咎于算法,不如正視人性的局限與現(xiàn)實的矛盾——這才是理解和應對社會極化的關鍵。