與AI在職場共存新機遇 (容志偉)
不同版本和功能的人工智能(AI)已經面世多年,但直到去年底,當ChatGPT開放給公眾使用後,才使很多人醒覺人工智能時代已經來臨,更開始意識到自己和下一代的工作,很有可能被人工智能所取代。
業界已經討論「人類工作會否被人工智能取代」多年,而答案是非常明顯的。很多工作,特別是依靠專業知識的工作,人工智能的效率和準確度都超出人類很多,取代人類是必然的。如果下一代仍然希望從事專業工作,那麼他們在畢業後是否可以只依靠專業知識便能找到工作,將會是一個大問號。
筆者7年前在這個專欄曾經寫了一篇關於下一代和人工智能共存的方法。當中提及三種讓下一代在人工智能年代仍能在職場生存的能力,即創新、跨學科知識和讀心術(詳見2016年3月22日〈下一代怎樣和人工智能共存〉)。在今天看來,人類在這些範疇仍然比人工智能優勝。當用家跟ChatGPT人工智能對話時,很可能會發現收到的回應,表面上已經非常近似一個真人在回應,但內容沒有太多創新的成份,也不能從多角度去分析問題。
對於很多人來說,人工智能的回應看起來很有新意,但內容其實一早已存在或只是分散在不同地方,再由人工智能組合起來。這是由於人工智能只是基於用來訓練的歷史資料去回應,同時也暫未能做到舉一反三。另一方面,人工智能仍未能了解人類發問和回應時的動機,因此「讀心術」依然是非常重要的能力。
「提示工程師」做好溝通第一環
這三種能力可以讓我們維持職場競爭力一段時間,但長遠是否還有更多工種讓人類在人工智能時代擔任呢?
即使不少人認為現在的人工智能已非常先進,但ChatGPT仍未能達到通用人工智能(Artificial General Intelligence)的級別,即未能像一個真實成年人般運作,仍然要依靠人類用某一種方式去溝通,人工智能才能作出回應。但跟人工智能溝通本身就是一種全新技能,如果擁有這種技能,人工智能便能即時作出最適合和完整的回應。如果問題或提出的指示並不是人工智能能完全理解,那麼人工智能便未能回覆合適的答案。在業界中,需要這種技能的職位被稱為提示工程師(Prompt Engineer)。這是一個人工智能入門級職位,無論本身是什麼專業,也可以轉型到這種職位。
人工智能本身也有不少弱點,通常是源於訓練時的數據或在訓練時的設定。筆者於過往數年在這個專欄也寫了一系列有關人工智能潛在問題的文章,而這些潛在問題仍須要人類來處理。曾經使用人工智能的讀者,都應知道它們的回應即使很有信心,卻有些是錯誤的。我們可以很快找出一些事實內容上的錯誤,但在其他範疇就未必了。其中兩個錯誤是人工智能的回應是否符合法律知識產權要求(詳見2022年9月10日〈AI創作應否獲知識產權保護〉),以及道德要求(詳見2019年4月13日〈人工智能的道德〉)。
「回應稽查員」確保法律道德合規
相對於找出事實內容上的錯誤,找出道德和法律知識產權上的問題是比較困難的,因為人類對道德的要求很多時沒有絕對標準,甚至因時而異。而人工智能相關的法律也在快速改變中,在不同國家多場相關的官司中,各方仍不斷提出新觀點去論證,而這種改變應該會持續下去。因此即使人工智能提出了答案,還是要人類去檢查是否符合當時的實際法律和道德要求。執行這種校對工作的人員可以統稱為回應稽查員(Response Inspector)。
最後是一個人工智能最深層次的問題。可以預見未來不同商業機構都會開發用自家數據訓練的人工智能,但如果用來訓練的數據被種入惡意的數據,令到人工智能的回應帶有某種特定的隱藏惡意方向,那便是一個大問題。這個情況可以簡稱為人工智能中毒(詳見2017年8月5日〈如果你身邊的人工智能中毒〉)。
「數據保安員」為資料把關防護
因此保護和檢查數據將會是人工智能普及後盛行的一個行業,就如網絡保安行業一樣。跟數據科學不同,這個行業需要大量熟悉數據處理和保安技術的人員去處理。這些人員可以統稱為數據保安員(Data Safety Officer)。
有危便有機,面對有無限可能性的人工智能科技,讓自己具有前瞻性,充滿好奇心,便有機會抓住這次媲美之前3次工業革命的機遇。其中一種前瞻性是能否看到7年後的工作需求。當讀者讀到這裏,心中會否問這篇文章其實是由筆者親自撰寫,還是筆者要求人工智能撰寫後便直接送交編輯?如果讀者心中有問這條問題,你可能已經有足夠的好奇心了。
更多容志偉文章:
- 從Clubhouse與MeWe看創新體驗
- MP3專利到終結 香港創科何處去
- 發牌條件窒礙 不鬆綁難創新