You are currently at: ejtech.hkej.com
Skip This Ads
Don't Miss

防範人工智能失控(車品覺)

By on June 22, 2016

本文作者車品覺,為紅杉資本中國基金專家合夥人、原阿里巴巴集團副總裁,為《信報》撰寫專欄全民大數據

網絡圖片

白宮警告,美國政府必須在人工智能仍依賴人類的時候,開始思考如何監管和利用這項強大技術。大部分人也贊同,美國政府須在這方面有所作為,但如何具體落實尚未清晰。人工智能實際的問題愈來愈多,且迫在眉睫,例如谷歌自動駕駛汽車一旦出意外,誰該負責任?車廠抑或乘客?數據提供者抑或演算法工程師?我就見過例子,因為某個表格欄位資料意外遺失,令自動化系統演算法判斷失誤,導致一家企業損失了幾千萬元;最後追究責任時,才發現這只是來自一個產品經理的微小疏忽。

數據輸入問責制愈趨重要

我們都知道,想讓機器學習成功,首先要給它清楚的目標,然後向其「餵食」大量數據,但讓人擔心的是,人類在輸入目標和設計上,可能會把既有的偏見,灌輸進人工智能的思維。實際例子便出現過,某大平台向男性推送高薪工作的機會,遠高於女性;另據某國的警察系統判斷,非裔美國人比白人更容易被當成潛在慣犯。若要由人工智能決定誰可獲得貸款、工作或假釋,那麼對輸入這些系統的數據,進行某程度的問責,以確保準確性,將會變得愈來愈重要。

法律界也指出,帶有人工智能的產品創造者們, 有義務證明其產品合乎公共安全。毫無疑問,人工智能已帶來政策上的挑戰,比如在自動化技術變得更加複雜、更加智能的同時,如何繼續確保其可控性?雖然人工智能已在某些方面打敗人類,但很多系統的應用仍依賴人類指示方向,有能力完成和自主完成大不相同。當然,有些科學家也曾經說:「看吧,如果有一天,製造機器人的是另一個聰明機器人的時候,我們就應該要小心了。」

現今,美國政府已在想辦法監管人工智能,例如無人機和癌症探測分析儀等。白宮內的科技政策辦公室,亦正在聯合多個政府機關,依據事實制訂監管辦法。諸位不要以為,這只是政府煩惱的問題,因為我們可能很快會見到某CEO下台是因為一個關鍵演算法失誤。我絕非危言聳聽,如今複雜的科技,已讓傳統的管理體系捉襟見肘。大數據、人工智能、機器學習等都是新生事物,水能載舟亦能覆舟,趁人類仍掌控大局時先打好基礎、做好防範乃當務之急。

更多車品覺文章:

支持EJ Tech



如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們