選單

為何謠言能在社交軟體中迅速傳播?

為何謠言能在社交軟體中迅速傳播?

社交媒體是美國乃至全世界的人獲得新聞的主要來源之一。眾所周知,使用者在獲取新聞的時候會接觸到一些虛假資訊,包括陰謀論、標題黨(clickbait)、偽科學(pseudo science),甚至捏造的“假新聞”(fake news)。

出現這麼多的虛假資訊並不奇怪。首先,垃圾郵件和網路欺詐對於犯罪分子來說是有利可圖的;其次,政府和政治宣傳需要這些資訊維護自己的黨派和經濟利益。但是,低信譽內容如此簡單和迅速地傳播表明了,社交媒體平臺背後的人或者演算法容易受到操縱。

喬凡尼·盧卡·錢帕格利亞(Giovanni Luca Ciampaglia)是印第安納大學網路科學研究所助理研究員(Assistant Research Scientist,Indiana University Network Science Institute,Indiana University); 菲利普·門採爾(Filippo Menczer) 是印第安納大學計算機科學與資訊學教授(Professor of Computer Science and lnformatics),同時他還是複雜網路和系統研究中心主任(Director of the Center for Complex Networks and Systems Research,Indiana University)。在他們的研究中發現存在三種誤差,能夠使社交媒體生態系統有意或者無意的受到錯誤資訊的影響。同時,印第安納大學社交媒體觀察站(Observatory on Social Media)正在開發新的網際網路工具,幫助人們意識到這些漏洞並保護自己免受外部的惡意攻擊。

人們大腦中的偏差

認知偏差(cognitive biases)源自於大腦處理每天遇到的資訊的方式。大腦只能處理有限數量的資訊,而過多的傳入刺激可能會導致資訊過載。這會使大腦在處理社交媒體資訊時,對其質量的判定產生嚴重的影響。對於使用者有限的關注而言,激烈的競爭意味著即使人們更喜歡分享高質量的內容,一些質量低下的資訊也會鑽空子快速傳播。

為了避免這種情況,大腦會有應對技巧。這些方法通常是有效的,但也可能在錯誤的背景下產生誤差。當一個人決定是否在社交媒體上分享某個故事時,大腦會產生一種認知捷徑。雖然一篇文章的標題不能很好的表示其準確性,但人們受到標題情感內涵的影響很大,文章的作者會產生更大的影響。

為了應對這種認知偏差,並幫助人們在分享之前更多地關注資訊的來源,喬凡尼和菲利普團隊開發了“辨假”(Fakey)應用程式,它是一款模擬典型社交媒體新聞的遊戲,給使用者推送來自主流新聞和低信譽來源的文章,使用者經過篩選,透過分享可靠來源的新聞、標記可疑內容並進行事實核查來獲取積分,這可以提高使用者的新聞素養。在這個過程中,他們學會識別資訊來源的可信度,比如不同黨派的主張和情感豐富的新聞頭條。

社會環境因素

社會是偏差的另一個來源。當人們直接與同齡人交往時,引導他們選擇朋友的社會偏見會影響他們看到的資訊。

喬凡尼和菲利普團隊的研究結果顯示,透過簡單地檢視其朋友的黨派偏好(partisan preferences)就可以確定推特(Twitter)使用者的政治傾向。他們透過對黨派傳播網路結構的分析發現,當社交網路緊密聯絡在一起並與社會其他部分脫節時,不論資訊準確與否,它的傳播速度都很快。

不管是有意還是無意地,如果資訊來源於人們自己的社交圈,那麼對資訊的評估都是可以操作的。例如,在多黨派競爭中,如果有好友一直在耳邊宣傳某一黨派的優勢,勢必會受到影響。這也解釋了為什麼如此多的網路對話最終轉變為不同群體的對抗。

為了研究線上社交網路的結構如何使使用者容易受到虛假資訊的影響,喬凡尼和菲利普團隊製作了胡克西(Hoaxy),一個可以跟蹤低信譽資訊的傳播途徑,並將這個過程視覺化的系統。透過利用胡克西將2016年美國總統選舉期間收集的資料進行分析得到,分享錯誤資訊的推特賬戶幾乎完全與事實核查員所做的修正切斷聯絡。

當深入瞭解傳播錯誤資訊的賬戶時,研究發現這些賬戶屬於同一個核心賬戶組,他們之間相互轉發的頻率非常密集,甚至有一些賬號是電腦操作的。而僅僅在質疑其合法性或與他們的主張相反時,這些賬號才會引用或者提及事實核查組織。

演算法造成的偏差

第三組偏差直接產生於社交媒體的演算法。無論是社交媒體平臺還是搜尋引擎都會使用這些演算法。這些個性化技術的目的是為每個使用者選擇最吸引人的相關內容。但這樣做,最終可能會強化使用者的認知和社會偏差,從而使他們更容易被操縱。

例如,在許多社交媒體平臺中內建詳細的廣告工具,傳播虛假資訊的人們可以利用它,將資訊進行修改,推送給那些已經傾向於相信虛假資訊的使用者。

此外,如果使用者經常從臉書(Facebook)點選某個特定來源的新聞連結,臉書將更頻繁地向該使用者展示該網站的內容。這種所謂的“過濾泡沫”(filter bubble)效應可能會將人們從不同的角度隔離開來,從而強化確認偏差。

喬凡尼和菲利普的研究結果表明,與維基百科(Wikipedia)這樣的非社交媒體網站相比,社交媒體平臺讓使用者接觸到的資源更少。因為這是在整個平臺的水平上,而不是針對單個使用者,可以稱之為“均勻性偏差”。

社交媒體的另一個重要組成部分是透過點選量確定平臺上正在流行的資訊。研究還發現,如果某種演算法的目的是促進流行內容,它可能會對平臺上資訊的總體質量產生負面影響,這種可以稱之為“流行偏差”。這會助長現有的認知偏差,強化了不論質量如何,只要受歡迎就可以的風氣。

所有這些演算法偏差都可以被社交機器人操縱,社交機器人是指透過社交媒體賬戶與人類互動的計算機程式。大多數社交機器人,比如推特的“大笨鐘”(Big Ben),都是無害的。但是,一些人隱瞞了他們的真實意圖,將其用於惡意的目的,例如透過互相轉發促進虛假資訊的傳播。

為了研究這些操作策略,喬凡尼和菲利普團隊開發了一種檢測社交機器人的工具,稱為寶通計量(Botometer)。它可以透過檢視推特賬戶的不同特徵(比如發帖時間、頻率以及互相關注的賬戶等等),利用機器學習來檢測賬戶資訊。雖然它現在還不完美,但已經檢測到多達15%的推特賬戶為社交機器人。

在2016年美國總統競選期間,透過將胡克西和寶通計量結合使用,喬凡尼團隊分析出了錯誤資訊傳播網路的核心。這些機器人會給易受攻擊的使用者提供虛假的宣告和錯誤的資訊。首先,他們透過推特候選人的標籤或提及轉發該候選人,以此來吸引支援該候選人的使用者的注意力。然後,機器人可以誇大虛假宣告,透過轉發來自低可信度來源的,與某些關鍵詞相匹配的文章誹謗對手。

喬凡尼和菲利普團隊製作的網際網路工具為使用者提供了許多關於辨別虛假資訊的方法,在一定程度上可以保護人們免受傷害。許多研究表明,個人、機構的賬號甚至整個社會都可以在社交媒體上被操縱,仍有許多問題有待解決。重要的一點是要發現這些不同的偏差是如何相互作用的,這可能會造成更復雜的漏洞。解決方案不會僅僅是技術上的,還必須考慮到認知和社會方面存在的一些問題。