開發人工智慧審查系統 臉書未來能分辨恐怖份子

  • A
  • A+
  • A++
2017-02-18

開發人工智慧審查系統 臉書未來能分辨恐怖份子 | 文章內置圖片

(圖/翻攝自網路)

 

臉書創辦人祖克柏(Mark Zuckerberg)發表聲明,計畫開發人工智慧軟體審查資訊。相關計畫試圖透過計算法,讓使用者能於合法範圍內,發表任何訊息內容。祖克柏稱若能夠成功開發,將可能會直接分辨出計畫暗地發動攻擊的恐怖份子。

 

根據祖克柏所發《Building Global Community》長信,闡述臉書未來發展走向。當中提及若要逐一審查臉書每日數十億貼文與訊息量,須要遠超過現今社群網路管理程序。臉書正積極開發人工智慧軟體審查,未來將可能直接透過所發布訊息,辨識出恐怖份子。相關計畫相當複雜,必須擁有更佳技術協助完成。

 

開發人工智慧審查系統 臉書未來能分辨恐怖份子 | 文章內置圖片

(圖/翻攝自網路)

 

人工智慧審查系統仍處於開發階段,預計完成整套系統需要好幾年時間。祖克柏透露相較真人審查,人工智慧能更迅速識別問題素材,也可能分辨出更多風險。該系統目前已開始被運用,對部分通報需審查內容進行作業。臉書亦試圖利用系統區別恐怖主義報導,與實際宣傳恐怖主義之差異。

 

全球政治制度相當混亂,導致多人對社會失望。祖克柏期許未來協助打造「全球社群」,即使臉書無法解答所有問題,卻能讓使用者在當中扮演重要角色,齊心協力投入精神與想法,共同創造長期社會基礎建設。

 

【101傳媒/整理報導】

 

-------------------------------------------------------

文章內容若有侵權疑慮,請來信告知。

客服信箱:[email protected]

 

 

免責聲明:

部分圖片、觀點,來源於網際網路及其他網路平台,主要目的在於分享訊息,讓更多人獲得需要的資訊,其版權歸原作者所有。如涉及侵權請告知,我們會在24小時內刪除相關內容。

 

 

  • 本文評論:
延伸閱讀