臉書用AI揪出假帳號 政治廣告須授權
2019/03/18 06:00
〔編譯劉宜庭/綜合報導〕社群媒體助長不實資訊散播的情況,在二○一六年美國總統大選期間,開始廣泛受到關注;自全球社群媒體龍頭「臉書」二○一八年三月爆發英國政治顧問公司「劍橋分析」(Cambridge Analytica)濫用個資操弄各國選舉的醜聞後,各大社群媒體隨即受到與日俱增的全球政治壓力,要求平台自主管控假消息的散播。
回應批判聲浪,臉書已投入更多資源防範錯誤資訊散播,包括透過人工智慧(AI)揪出假帳號並刪除,避免假新聞、垃圾郵件或網路釣魚、營銷及廣告詐騙等情事,並加強使用者個資保密。
臉書一月初並宣布,將要求用戶對新聞來源的可信度進行評比,並據此在「新聞動態」上優先呈現「值得信賴」的新聞;二月對內部程序做出重大改變,平台上所有政治廣告都須獲得授權,並已增設三萬人力控管惡意內容傳播,也繼續投資機器學習、人工智慧等技術,協助解決問題。
WhatsApp每則訊息限轉發五次
臉書旗下的訊息服務「WhatsApp」一月起,也做出大幅度服務更動,每則訊息由最多轉發廿次改為五次。由於單一聊天群組最多可容納二百五十六人,相當於每則訊息最多只會有一千兩百八十人收到。
與此同時,學界也興起社群媒體散播假新聞的相關研究。美國麻省理工學院「社交機器實驗室(LSM)」研究團隊,針對推特二○○六年至一六年總統大選前,十年內被分享數百萬次的逾十二萬六千篇推文進行分析,發現比起「準確新聞」,假新聞傳播得「更遠、更快、更深入、更廣泛」;假新聞被轉發的機率高出七成,廣傳速度更快上六倍。