Info Interventions
:以行為研究為基礎並經過數位驗證的一套方法,旨在建立應對網路危害的抵禦力。
準確性提示功能
將使用者注意力重新聚焦於準確性
「準確性提示」功能要求參與者思考一小段內容的真實性,並要求他們在必要時分享正確資訊的承諾。
假設
在使用者即將接受不實資訊時適時提醒他們思考內容準確性,可提高使用者既有的準確性目標。
運作方式
-
1
1. 如果使用者在瀏覽社群動態時看到內含潛在不實資訊的內容,
-
2
2. 系統會觸發準確性提示功能,並在內容上彈出顯示提示文字,
-
3
3. 向使用者簡短說明他們為何會看到提醒資訊,將其注意力轉移到內容的準確性,並提供培養資訊素養的秘訣。
-
4
4. 使用者在收到提示後會提高警惕,日後在社群動態中看到相似內容時便能多加思考。
發現項目
範例
我們與麻省理工學院和雷吉那大學合力進行了一系列實驗,目的是測試準確性提示能否在不同文化背景下發揮作用、減少不實資訊的散播、讓真實資訊在網路上得到更多分享,以及讓使用者對自身辨別資訊品質的能力更有信心。
我們的實驗是在 16 個國家/地區進行線上問卷調查,邀請超過 30,000 人評估自身分享真假新聞標題的意願。
我們的實驗是在 16 個國家/地區進行線上問卷調查,邀請超過 30,000 人評估自身分享真假新聞標題的意願。
Redirect Method
阻擋網路激進化
The Redirect Method 計畫旨在幫助易受暴力極端組織招募的群眾。試驗計畫運用了廣告,將搜尋極端主義資訊的使用者重新導向至反制 ISIS 招募訊息的精選內容。
假設
在激進化過程中,即使是正在研究極端主義意識形態的人士,我們仍有機會以相關反制言論加以勸服。
運作方式
-
1
1. 使用者以含有極端主義宣傳意圖的關鍵字完成線上搜尋。
-
2
2. The Redirect Method 會啟動並擷取關鍵字內容,以提供相關輔助訊息。
-
3
3. 系統會向使用者顯示廣告,其中含有更多關於他們有意瞭解的主題資訊,
-
4
4. 並在使用者點選廣告之後,將使用者重新導向至駁斥錯誤極端主義言論的內容。
範例
Jigsaw 和 Moonshot 採訪了 ISIS 叛逃者,探究網際網路在組織激進化過程中的角色,根據訪談內容發展出 The Redirect Method 可公開存取的方法。我們根據分析結果設計了採用 AdWords 服務的試驗計畫,藉此接觸有激進化風險的使用者,並提供含有相關反制論點內容。
這類內容是由世界各地對抗網路激進化的使用者上傳,並交由專家從業者評選。
我們的方法著重在最易受訊息影響的 ISIS 受眾,也體認到即使不是以駁斥不實訊息為目的而建立的內容,在有效編撰、管理及投放的情況下仍可打擊惡意言論。 自 2016 年起,Moonshot 與包含 Facebook 在內的多間科技公司合作,向對於其他網路危害 (包括白人至上主義、暴力女性仇恨和陰謀論) 感興趣的使用者投放廣告。
這類內容是由世界各地對抗網路激進化的使用者上傳,並交由專家從業者評選。
我們的方法著重在最易受訊息影響的 ISIS 受眾,也體認到即使不是以駁斥不實訊息為目的而建立的內容,在有效編撰、管理及投放的情況下仍可打擊惡意言論。 自 2016 年起,Moonshot 與包含 Facebook 在內的多間科技公司合作,向對於其他網路危害 (包括白人至上主義、暴力女性仇恨和陰謀論) 感興趣的使用者投放廣告。
預先揭露
提高對議題操縱的反制能力
預先揭露方法是網路上預先反制操縱性內容的一種技巧,用來預先警告使用者並教導自我發現及駁斥誤導性論點的能力,幫助他們日後不易受到誤導。
假設
預先反制的訊息可協助民眾辨識操縱性言論和策略 (例如「疫苗並非天然」或難民偷走工作機會的主張)。
運作方式
-
1
1. 我們將預先揭露影片以廣告的形式投放到一群使用者的社群媒體動態中。
-
2
2. 透過短片訊息讓使用者瞭解有人可能會試圖在網路上操控他們的想法。
-
3
3. 我們對使用者展示與操弄手法或言論相關的示例,然後給出駁斥相關主張的反面論述。
-
4
4. 我們會請觀看影片的使用者接受簡短的問卷調查,分析相較於控制組,他們對於操弄手法的印象深刻程度,藉此評估他們未來抵制操縱性內容的可能性。
發現項目
-
73%
的使用者在看過預先揭露影片後,更有可能持續辨別網路上的不實資訊 (資料來源:Science Advances)。
-
5%
以 YouTube 廣告形式播放的預先揭露影片,讓使用者對操弄手法的辨識率提高了 5% (資料來源:Science Advances)。
方法與範例
我們攜手劍橋大學、哈佛大學和美利堅大學的學術夥伴進行實驗室測試和真實環境實驗,測試利用短片訊息預先闢謠的做法,是否能有效反制用於散播不實資訊的常見話術和說詞。