都是機械人的錯? (鄧淑明博士)
本文作者鄧淑明博士,為香港大學建築學院及工程學院計算機科學系客席教授,以及團結香港基金顧問,為《信報》撰寫專欄「科網人語」。
早前彭博新聞有一則題為〈當機械人令你蒙受投資損失,你可以告誰〉的報道,是首宗人類狀告人工智能的案件,引人深思。
案情指一名香港富商把25億美元(約195億港元)交託給一個人工智能的電腦程式管理和投資。這個程式能夠透過整理網上零碎的資訊,包括即時新聞和社交媒體等,掌握投資情緒,然後預測美國股票期貨走勢,並以此作買賣的決定。在模擬測試中,程式總能獲取雙位數的回報。
事實上,根據彭博數據,由2014年初至今的5年間,人工智能投資回報的確比對沖基金優勝,回報多逾一倍。不過,在表現反覆的股票市場上,人類和人工智能卻互有輸贏,而近一年人類表現較佳。
回頭說這個備受期待的人工智能程式,在真正展開服務之後,表現卻令人非常失望,例如在去年2月14日當天,這個電腦程式認為美國標普500指數期貨會上漲,但是資料顯示美國通脹上升較預期快速,標普指數掉頭向下,這引致程式作出1.4%止蝕的指令。可是,標普指數卻在數小時內反彈,結果令這名客戶在一天內損失逾2000萬美元(逾1.5億港元),訴訟由此引發。案件已排期明年4月在倫敦的商業法庭開審,屆時肯定更引人注目。
人工智能AlphaGo此前一舉打敗了人類圍棋冠軍而名揚天下,可是,棋藝始終有規有矩,股市則有許多「人為因素」,這些屬於非理性成分,大有可能殺人工智能一個措手不及。
而且,人工智能的「黑箱」思維問題,令人們難以解釋為什麼電腦會作出這樣的決定,因此容易惹人疑慮。
香港大學建築學院院長偉仕達教授在我新出版的《你未來就緒嗎?》一書的序言中,就大談「黑箱」思維。他指出,最先進的城市分析模型,例如新加坡政府正在研發的超高解像度、打算用在交通和土地規劃上的數學模型,便令人又愛又恨。
愛的是模型複雜而精妙,令人嘆為觀止;恨的正是它的「黑箱」思維,因為人工智能涉及大量和多重決策因素與資訊,它們結合一起時又產生新的變化,使分析結果難以臆測,要詮釋更往往令人啞口難言。
這樣又如何能夠贏取人類信任呢?而且一旦出錯,責任又是誰屬?
你可能以為研發的公司或擁有這個人工智能的機構需要負責,可是今年3月,美國檢察方決定Uber毋須為去年自動駕駛汽車撞死行人一事負上刑事責任,這不禁令人擔心。今天不少公司以人工智能的另一應用──聊天機械人(chatbot)來負責客戶服務,解答一般疑問,如果將來以它推售產品,萬一出現問題,客戶又可以向誰人追討?期望我們能盡快解答這些疑問,這樣人工智能的應用才能發揚光大,真正造福社群。
(編者按:鄧淑明博士最新著作《你未來就緒嗎?》現已發售)
歡迎訂購:實體書、電子書
更多鄧淑明文章:
支持EJ Tech
如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們。