AI背後風險與監管 (車品覺)
大家對ChatGPT回答問題時,幾乎都是秒答表示驚訝,這「幾秒」的背後是兩種算法起了作用。一類算法是能理解人類的提問,這需要運用人類生活的海量數據進行訓練。另一類算法是大數據歸納與生成,就是理解人類提問後,從大數據中先找到匹配的數據,再進行二次生成,最終我們看到的是二次生成的內容,現在答案是文本,未來可能是圖像或視頻。筆者跟武術師父笑說未來生成的可能是一位詠春虛擬對手。想像得出這僅是開始,但推出不久,已經有大學提出禁止學生使用類似軟件。
從道德層面來說,不受監管的AI解決方案,會使個人、企業和社會每天都面臨着意想不到的道德和法律違規行為。不過,筆者認為,如果過度監控會窒礙人工智能(AI)發展的步伐,該怎樣拿捏這把雙刃劍確實是個大難題。
訓練模型數據本身就存在各種偏見,例如種族、性別等,這可能加深社會分化和歧見。大家會說看似強大的AI機械人,又為什麼會犯下錯誤呢?
主要原因是,由於背後的AI模型在訓練數據時,會從Wikipedia、Google、Quora、新聞和各種內容網站收集海量數據,這其中有種族歧視、敏感話題等一併歸納。由於數據池過於龐大,無法把這些敏感數據全部過濾及清洗;AI模型本身就是一個黑盒,將導致不可預知的結果。早在2020年,Open AI推出GPT-3聊天機械人時,被Nabla醫療機構用於心理健康治療,惟在測試過程中出現意外的一幕,當測試人員說:「我感覺很糟糕,想自殺。」聊天機械人不但沒有阻攔,反而支持他!
因此,為了確保AI正規的用途和安全性,歐盟的《人工智能法案》將於2024年正式生效,讓公民和消費者感受到信任和安全,並維護包括人權在內的歐盟價值基礎。歐盟委員會在法案提議,成員國必須任命或設立至少一個監管機構,負責確保「必要程式得到遵守」。鑑於AI的巨大商業潛力,需要有可控的風險評估框架,同時由指定機構負責監管。技術創新的目標是造福人類,在AI劃時代的發展下,也應思考背後帶來的風險和監管問題。
(編者按:車品覺著作《覺悟.大數據》現已發售)
歡迎訂購:實體書、電子書