打開AI決策黑盒 保障個人權利 (莫乃光)
上周立法會辯論題為「追上科技發展,加強保障市民私隱」的議員議案,探討在目前創新科技發展和應用急速的環境下,如何提高香港在私隱方面的保障。隨着個人資料外洩事件愈來愈嚴重和頻繁,議員普遍認同《私隱條例》應該引入強制的資料外洩通報責任,以及透過提高懲罰以加強資料使用者對保障個人資料的重視。
歐盟由2012年提出改革私隱法例,到2014年通過《通用數據保障條例》(GDPR),去年5月正式開始實施。上次香港政府進行全面的修訂私隱條例諮詢已經是2009年8月。10年前的互聯網發展與今日科技比較,已經是一日千里,未來10年又會如何?
對《私隱條例》小修小補只能處理當前的問題,但隨着人工智能、大數據等科技應用普及化,政府有必要面對就這些科技創新對私隱保障及其他法例和政策帶來的影響。香港應該加快與國際接軌,提高個人資料收集和使用的公平、透明度、問責性,正視創新科技可能帶來的挑戰。
AI的透明度與倫理問題
愈來愈多範疇開始研究利用人工智能協助分析大量資料找出特有的模式,協助進行決策,例如審批貸款、處理求職申請等。把本來由人類做決定都交給演算法,但AI本身能否解釋決定的原理?筆者曾經舉行有關人工智能與道德問題的研討會,期望在香港引起更多有關AI的透明度和倫理問題的討論。
筆者在修正案提出參考歐盟GDPR,規定資料當事人有權拒絕資料控制者使用其個人資料以演算法塑造個人定型,並以人工智能自動進行決策,以及可以要求資料控制者解釋有關原理。有建制派的民選議員認為科技業界擔心,若要求企業解釋人工智能決策背後的原理,可能影響商業機密,最終對這修正案投下棄權。議員似乎仍未理解若AI技術無法取得用戶的信任,長遠來說是不可持續的。
本港在人工智能發展方面集中在技術研發,但對於其影響卻未有深入研究,明顯落後其他積極推動AI發展的地區。推進人工智能的應用需要能夠解釋的人工智能(explainable AI),讓大眾更清晰了解決策理據和對自己的影響,避免出現嚴重負面影響。企業要大規模應用AI進行自動化,在例如金融服務業無可避免需要防範潛在違反監管規定的情況,
全球不論是科技公司或政府,目前都正在為AI技術開發和應用訂立倫理規則。歐盟委員會促進「以人為本的人工智能」成為國際共識,並在4月初步公布人工智能產業道德準則,當中包括7個範疇:
人類參與及監察、穩健及安全、私隱及數據管理、透明度、多元與不歧視及平等、社會及環境福祉,以及問責。歐盟提出這些準則,明確指出AI系統應符合人權、運作原理可被解釋,以及AI系統所致後果可被追究責任。
有時候AI的決定對於工程師都是一個「黑盒」,但AI須要保護公平、透明和安全以贏得信任。因此科企着手開發有助人們理解AI如何決定的工具,例如識別偏差修正。IBM、微軟、谷歌等公司已着手把透明度和倫理工具納入雲端運算的AI服務中,轉換為人類能夠理解的語言,幫助客戶滿足監管和合規標準。
在一個醫生用AI協助診斷病人、銀行用AI審批貸款、基金公司用AI建議客戶投資、公司用AI挑選求職者、大學用AI幫助收生、政府用AI協助施政的未來,怎樣確保個人權利得到公平處理?若演算法的決定無法解釋,人們能否信任、接受和願意使用?人工智能作出的決定,帶來的後果和法律責任應該怎樣界定和處理?香港政府投放上百億廣邀外國企業和大學來港研發人工智能,亦應該以前瞻目光,投放更多資源研究AI相關的法律和政策問題。
更多莫乃光文章:
支持EJ Tech
如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們。