AI辨臉存「歧視」 有色人種易認錯
原文刊於信報財經新聞「StartupBeat創科鬥室」
人工智能(AI)都會種族歧視?美國國家標準暨技術研究院(NIST)一項研究顯示,人臉識別系統的準確率存在極高差異。在特定的AI算法及搜索方式下,系統在識別亞裔與非裔美國人等有色人種時的失誤率,較白人高出100倍;當中又以識別美國原住民的失誤率最高。
是次研究測試了業界領先的人臉識別系統,涵蓋99間公司、學術機構及其他開發人員,包括英特爾(Intel)、微軟(Microsoft)、松下(Panasonic)與商湯科技(SenseTime)等自願提交的189種系統算法。惟亞馬遜(Amazon)開發的臉部辨識產品Rekognition未參與測試,該產品獲美國警察部門和政府機構用於追查疑犯,過往曾因牽涉性別與種族歧視而備受批評。
研究團隊使用了源自800多萬人、約1800萬張照片,以測試人臉識別系統,所有照片均來自美國國務院、國土安全部及聯邦調查局(FBI)的數據庫。測試主要分為「一對一」及「一對多」配對測試,前者是把人臉圖像與數據庫中特定的圖像進行配對,模擬手機解鎖或護照驗證用途;後者是把人臉圖像跟數據庫內所有圖像進行配對,多被警方用作搜尋疑犯。
中年白人特別準確
研究發現,大多數人臉識別系統會受到人口差異所限,由於年齡、性別或種族不同而降低準確度。其中,女性比男性更容易遭錯誤識別,長者與小童亦同樣易認錯,中年白人的識別準確率則最高。
若按不同開發地區劃分,美國所開發的系統算法,對亞洲人、非裔美國人、美洲原住民,以及太平洋島民作「一對一」配對時,往往出現極高失誤率。相反,由亞洲國家研發的系統算法,在識別白人與亞洲人臉時的失誤率相若。
團隊相信,系統算法的準確度,跟用來訓練系統的數據之間存在關係。雖然未知造成準確率差異的具體原因,但團隊希望是次研究能促使社會重新思考人臉識別技術的局限與適用性。
支持EJ Tech
如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們。