fb人工智能僅刪2%仇恨言論 效用低
原文刊於信報財經新聞「StartupBeat創科鬥室」
社交網站Facebook(fb)近年積極開發人工智能(AI)工具,以識別平台上宣揚暴力及仇恨言論等違規內容。不過,《華爾街日報》引述fb內部文件指出,該公司的AI工具效果成疑,無法識別第一身的射擊影片及種族主義內容,被系統刪除的違規內容只得大約2%。
報道提到,自兩年前起,fb開始縮減人手審查仇恨言論投訴的時間,並進行內部調整,以降低投訴總數。此舉除了使fb更依賴AI,亦營造出一種AI有效審查平台發布內容的「錯覺」。
公司反駁 減少傳播更重要
fb行政總裁朱克伯格(Mark Zuckerberg)曾揚言,fb會在2019年底前透過AI識別絕大多數有問題的內容。
此外,fb亦多次表示,幾乎所有被刪除的違規內容均在用戶舉報前已遭AI識別;截至今年較早時間,AI主動識別率接近98%。
然而,內部文件顯示,一名fb高級工程師及研究科學家在2019年中曾估計,AI只能識別及刪除約2%違規仇恨言論內容。今年3月,另一批fb員工也得出類似結論,稱僅3%至5%的違規仇恨言論內容遭AI刪除,而被刪的違規暴力內容更只得0.6%。
fb副總裁羅森(Guy Rosen)認為,《華爾街日報》引述的文件已經過時。他在fb網站上撰文反駁稱,刪除平台上的違規內容只是fb的應對方法之一,而減少違規內容傳播及被用戶瀏覽相對地更為重要。
過去三個季度,fb上的仇恨言論流行度(prevalence)下降近50%,相關內容的瀏覽量更低至0.05%,即每一萬次用戶瀏覽中,僅有5次涉及仇恨言論內容。
擬在歐聘一萬人拓元宇宙
與此同時,fb全球事務副總裁克萊格(Nick Clegg)與中央產品副總裁Javier Olivan在官網發文,透露公司計劃於未來5年,在歐盟地區招聘一萬名高技術工程師,以建立數碼世界元宇宙(metaverse)。
二人強調歐洲對集團發展很重要,新職位預期將分布在德國、法國、意大利、西班牙、波蘭、荷蘭、愛爾蘭等國家。
朱克伯格在7月時宣布,將大力發展元宇宙業務,目標是讓大量群眾在3D環境下互動。其他科技巨頭例如微軟,以至遊戲公司Roblox、Epic Games等,均有意拓展元宇宙業務。
支持EJ Tech
如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們。