Facebook持續打擊不實資訊 強化與第三方事實查覈機構合作

Facebook持續強化與第三方事實查覈機構合作,從各層面打擊不實資訊散播,持續穩步重建使用者對於平臺的信心。(達志影像/Shutterstock提供)

Facebook爲了提升用戶對於平臺信任度,持續加強打擊不實資訊的力道。當前Facebook 採取積極行動,包含與全球各地的事實查覈夥伴合作,推廣正確資訊,到移除違反 Facebook 社羣守則內容,並透過亞太區專屬數位公民計劃,提升使用者的數位辨讀能力全面防堵不實資訊的進一步散播。

首先,大衆必須要了解何謂不實訊息(Misinformation)。Facebook指出虛假訊息(Disinformation)指的是爲了誤導他人而刻意分享的內容,且爲操弄活動(manipulation campaign)或資訊戰(information operation)的一部分,這些行動是協同性的,並會涉及假帳號的使用。Facebook 不允許這類活動,一旦發現此類行爲,就會立即移除這些行爲者的帳號與內容。此外,他們也會在新聞中心透過每月的報告揭露相關工作成果。相對來說,不實資訊則是指非刻意分享的錯誤訊息,這些內容傾向在個體間共享,且並非是是協同性地企圖誤導或欺騙他人的一部分。

Facebook 以「移除、降低、告知」的三元架構,處理平臺上的不實訊息。在全球各地與第三方事實查覈計劃屬於三元架構的一部分。由於Facebook認爲任何人,包含私人企業或是政府,都不應成爲事實的仲裁者,來判斷內容的真實與錯誤,因爲這將導致權力不平衡與過度干涉的可能性。因此,Facebook 仰賴獨立事實查覈機構判定並審覈潛在的不實訊息,並據此採取行動。

累積至今,Facebook 與全球 80 多間經過無黨派的國際事實查覈聯盟(International Fact Checking Network)之認證的獨立第三方事實查覈機構合作,涵蓋超過 60 種語言。在亞太地區,Facebook 第三方事實查覈計劃在臺灣、香港、印尼、新加坡、馬來西亞、緬甸、泰國、斯里蘭卡、孟加拉、巴基斯坦、南韓、印度與菲律賓皆有合作伙伴

過去一年,Facebook 擴大支持全球事實查覈社羣,包含 Facebook 與 WhatsApp 提供 2 百萬美元的補助,協助受疫情嚴重影響地區的第三方事實查覈查覈機構提高量能。Facebook也與 10 間事實查覈機構合作,包含來自亞太地區的機構,啓動爲期一年的研究計劃,招募新的團隊成員,以在區域內協助建構工作量能。

【處理不實資訊第一步:移除】

根據社羣守則,Facebook 制定政策處理某些最有害的錯誤訊息類型,而社羣守則也會因時制宜不斷進化,對應當前的環境變化。其中關於造成現實生活的暴力或立即人身傷害的內容、操縱媒體與深度僞造技術等,Fcebook都明文禁止。

針對疫情Facebook 也移除可能導致立即身體危害的新型冠狀病毒(COVID-19)不實資訊,包含與療法、療效、必要服務的提供或疫情爆發地點和嚴重性相關的不實資訊。並移除含已被闢謠無證據支持的 COVID-19 疫苗相關的不實宣稱,例如疫苗的安全性、功效、成分或副作用的不實陳述。2020 年 3 月至 10 月間,Facebook 總共移除了 1,200 萬則 COVID-19 的不實訊息。

基於廣告也是影響使用者的媒介,Facebook長期禁止平臺上誤導他人的資訊,例如不允許出現利用公共衛生危機制造急迫感或恐懼感的 COVID-19相關補給品產品的廣告;直接或暗示的宣稱或誇大非醫療用口罩、乾洗手及/或表面消毒溼紙巾對健康與安全的影響;含有欺騙、不實或無事實根據內容的保健廣告,包括產品或服務可以提供 100% 預防或免疫,或治療病毒的宣稱內容。Facebook 也會移除特定的廣告目標設定選項,例如「疫苗爭議」,這些可能會促使這類不實訊息散佈的選項。

如果有關 COVID-19 的廣告包含政治內容,或者內容包含有關(某些國家)社會議題的倡議、辯論或討論,這些廣告必須獲得授權並提供「出資者」免責聲明才能刊登。關於不符合 COVID-19 廣告刊登政策規範、但違反 Facebook 社羣守則的不實訊息或錯誤資訊,例如仇恨言論、霸凌、騷擾或垃圾訊息,Facebook 也會移除任何違反社羣守則的內容。

【處理不實資訊第二步:降低】

凡經過第三方事實查覈機構評爲不實的內容,Facebook 會降低該內容在 Facebook 與 Instagram 動態消息當中出現的次序,以儘量減少其流傳的機會。在 Instagram 上也會透過在探索與主題標籤頁面中過濾該內容,讓用戶較難搜尋到。

若有粉絲專頁網站屢次分享不實資訊,Facebook 會大幅降低其整體觸及,同時撤除廣告刊登與營利的權限。並也會減少垃圾訊息或聳動內容的傳散,例如點擊誘餌(clickbait)或互動誘餌(engagement bait),這些也可能同時是不實訊息。

【處理不實資訊第三步:告知】

Facebook 藉由告知用戶更多背景資訊,讓用戶可以決定自己閱讀、信任和分享的內容。在 Facebook 和 Instagram 上當第三方事實查覈機構對內容進行評等時,可以選擇不同的標籤,包括不實、經過變造、部分不實、遺漏前因後果和諷刺的。

在 Facebook 和 Instagram 上被標記爲不實或經過改造的內容會標示醒目的標籤,以便用戶自己可以更好地決定閱讀、信任和分享的內容。這些標籤會顯示在不實或經過變造的照片及影片上,包括Instagram 的限時動態頁面頂部,並可連結到事實查覈機構的評估內容。若內容被評爲部分不實或遺漏前因後果,將標示較輕微的警告標籤。

爲了幫助擴展 Facebook 第三方事實查覈機構工作,Facebook也使用人工智慧來識別與第三方事實查覈機構所評估相同或類似的內容,並自動貼上其相關標籤或減少內容的散佈。

2018 年,Facebook 推出背景資訊按鈕,以提供動態消息上文章來源的相關資訊息,包含如文章何時被首次分享、發佈者何時在 Facebook 上註冊以及該發佈者其他內容的連結等重要細節。2020 年 6 月,Facebook 推出通知視窗,用戶欲分享超過 90 天前的舊新聞時,Facebook 將提醒該用戶。

【獲取可靠的訊息】

除了打壓不實資訊的流傳程度,Facebook 也進一步推出許多額外的措施,協助使用者瞭解 COVID-19 相關資訊。包含2020 年 3 月,Facebook 推出新冠病毒(COVID-19)資訊中心,並置於動態消息上方,其中包括當地衛生組織的即時更新資訊,以及關於保持社交距離和防疫的實用文章、影片及貼文。用戶還可以透過追蹤新冠病毒(COVID-19)資訊中心,直接在動態消息中接收來自衛生組織的最新消息。至今已有超過 20 億用戶透過新冠病毒(COVID-19)資訊中心取得來自衛生組織的資源

2020 年 4 月, Facebook 開始在動態消息上,針對那些曾對被我們移除的 COVID-19 相關不實訊息內容上按贊、傳達心情或留言的用戶顯示訊息。所提示的訊息將用戶連結到衛生組織以獲取準確的資訊。同時,根據第三方事實查覈合作伙伴發佈約 7,500 篇的文章,Facebook 將平臺上約 5,000 萬則 COVID-19 的內容標示警告標籤。

【數位素養計劃】

全面提升媒體識讀能力,是Faceboob認爲有效解決不實資訊散播的有效方法之一。因此他們投入一系列計劃,並與公民團體及產業夥伴合作,採取不同的行動來應對數位和新聞素養的根本性問題。其中一項重點計劃是專爲亞太地區打造的「數位公民(We Think Digital)」培育計劃。

「數位公民(We Think Digital)」培育計劃,是一個線上的教學網站,其中包含許多互動式教材,旨在幫助人們學習批判性思考,並在數位世界中謹慎分享。Facebook 與亞太地區的專家合作設計課程,目標是運用 6 種不同語言的資源,在 2020 年前於亞太地區 8 個國家培訓 100 萬人。