Facebook已開始利用人工智能技術,以阻止恐怖分子利用其網(wǎng)絡進行相關活動。
周四,公司官員在一篇博客文章中表示,F(xiàn)acebook將通過人工審閱和人工智能技術,確保宣揚恐怖主義的內容在還沒接觸到其瀏覽者之前就遭屏蔽。
Facebook和Youtube在早前就已經(jīng)利用了相關技術來屏蔽兒童色情內容。但在此之前,F(xiàn)acebook一直不愿意將這一技術應用到其他不那么黑白分明的內容上。在大多數(shù)情況下,F(xiàn)acebook只有在用戶舉報時才刪除那些令人反感的內容。
政府已向Facebook和其他互聯(lián)網(wǎng)公司不斷施壓,要求它們阻止恐怖主義組織在其網(wǎng)頁上發(fā)布宣揚恐怖主義或是“征兵”廣告。本月早些時候,英國首相特雷莎·梅呼吁各國政府簽署國際協(xié)議,以防止極端主義在網(wǎng)絡上蔓延。一些提議的措施將要求公司對其網(wǎng)站上發(fā)布的資料負法律責任。
Facebook全球政策主管BrianFishman發(fā)布這篇博文中沒有提到首相梅的提議。但文章中承認人們的質疑:“在最近的恐怖襲擊之后,人們質疑科技公司在網(wǎng)絡反恐方面的作用。我們想要對這些問題做出切實回應。我們同意社交媒體不應該成為恐怖分子發(fā)聲的地方這一觀點。”
這一過程利用了圖像識別技術,通過該技術,F(xiàn)acebook將人們上傳的圖片和視頻和已知的恐怖主義圖片和視頻作對比。這意味著這些做對比的恐怖主義視頻和圖片要么是之前就被Facebook屏蔽過,要么是來自由Facebook、推特與Youtube共享的一個恐怖主義圖片數(shù)據(jù)庫。
Facebook還對之前被屏蔽的那些宣揚恐怖主義的文章進行文本分析,找到這些文本的共同特點。之后,將這些特點錄入機器學習系統(tǒng)之中,不斷迭代,使其能夠很快偵測到類似的帖子。
Bickert和Bickert表示,當Facebook收到“恐怖主義內容”的舉報時,公司會立即對所舉報內容進行審查。此外,這篇博文還表示,在極端情況下,當系統(tǒng)發(fā)現(xiàn)了受重大傷害的證據(jù)時,會立即通知當局。
但是人工智能僅僅只是該過程的一部分而已。這項技術目前還不能理解語言上以及不同語境間的細微差別,所以目前還是以人工審查為主。
Facebook表示,超過150名雇員的“主要或全部工作內容就是打擊網(wǎng)絡恐怖主義”。這篇博文透露,這150人中包括反恐專家、前檢察官、前執(zhí)法人員、分析人士以及工程師。