You are currently at: ejtech.hkej.com
Skip This Ads
Don't Miss

人類須守住慢想優勢 (車品覺)

By on September 27, 2023

本文作者車品覺,為香港科技園有限公司董事、香港大學中國商學院客座副教授,為《信報》撰寫專欄「全民大數據」

以Google Bard、OpenAI ChatGPT、Meta LLaMA及百度(09888)文心一言等為代表的大型語言模型,是基於大規模數據集進行預訓練,以理解人類語言的一種人工智能(AI)模型。在不同語境下,有不同的底層技術和具體應用,又被稱為生成式人工智能(Generative AI)或人工智能生成內容(AI Generated Content, AIGC)。儘管其側重點有所差異,但指向的技術光譜大致相同。隨着算力、演算法、數據的不斷更新,大語言模型還在快速演進,受萬眾矚目的同時,亦自然引起國家立法者及監管人士的密切關注和快速反應。

綜觀全球已出台或正在進行的立法和監管規則中,有一個比較明顯的「公約數」,就是對大型語言模型提出的訊息披露要求。

在內地大語言模型的監管被置於「生成式人工智能」這一概念下,《生成式人工智能服務管理暫行辦法》(下稱《辦法》)涵蓋任何具有文字、圖片、音頻、影片等內容生成能力的模型及大型語言模型的相關技術。

《辦法》強調生成式人工智能服務提供者應依法履行企業責任,具體要求企業履行演算法備案、變更及登出備案手續。除備案外,如有關部門展開監督審查,生成式人工智能服務提供者亦應該對訓練數據來源、規模、類型、標注規則、演算法機制等予以說明。說白了,就是希望增加透明度。

試當思考成本被大大降低時,快思的思考方式快將被機械人取代,人類必須盡快學會守住慢想的暫時優勢。(Freepik網上圖片)

目前全球大型語言模型訊息披露的監管要求,大致要點均從公司主體、演算法模型及產品應用這3個不同維度提出,既對責任主體與使用者直接交互的產品延續監管,亦關注底層演算法模型的安全。

其中,特別關注數據來源本身的合法性,例如非法獲取個人資料可能侵犯個人訊息主體的私隱權;非法使用他人的作品訓練模型或侵犯其著作權;或者由於訓練數據本身的品質,與大型語言模型的產出有問題。使用的訓練數據本身有機會導致歧視或含有不良訊息,也會影響大型語言模型輸出內容的合規合法性。

值得一提的是,別以為AIGC還是剛開始不久、遙遠得很的事,不少企業已在使用。有專家形容,這場科技革新可能比互聯網的影響來得更猛烈,亦將引發人類的一次思想及工作方式的重大蛻變。試想想,當思考成本被大大降低時,用《快思慢想》作者丹尼爾.卡尼曼(Daniel Kahneman)的說法,我覺得系統一(快思)的思考方式快將被機械人取代,人類必須盡快學會守住系統二(慢想)的暫時優勢!

(編者按:車品覺著作《覺悟.大數據》現已發售)

歡迎訂購:實體書、電子書

更多車品覺文章:

支持EJ Tech

如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們