OpenAI新政策宣言 武器化惹擔憂
原文刊於信報財經新聞「EJ Tech 創科鬥室」
人工智能(AI)發展迅速,世界各地的軍事機構對應用此新技術持謹慎態度。新聞網站The Intercept爆料,美企OpenAI上周低調更新政策網頁措詞,不再明文禁止把其技術用於「軍事及戰爭」層面。政策最新版本維持其大型語言模型(LLM),不能用於任何潛在造成傷害的行為,以及「開發或使用武器」等警告字眼。
除了情報分析、心理戰、無人機控制及通訊代碼解密,AI亦可用於士兵的隨身頭盔,令軍隊作戰時如虎添翼。微軟、谷歌及亞馬遜等科企巨頭,曾提過不會把技術用於軍事上,惟當中仍存在灰色地帶。如今OpenAI政策移除「軍事及戰爭」字眼,該企日後研發AI產品時,或有更大空間爭取國防部等訂單。報道認為,若LLM存在偏見及幻覺,資料又缺乏準確,一旦在戰爭中使用,恐加劇平民傷亡。
CEO倡引進核能監管模式
OpenAI現時提供的任何產品都不會直接置人於死地。美國微軟創辦人蓋茨(Bill Gates)最近在個人播客(Podcast)節目,就跟OpenAI行政總裁(CEO)阿爾特曼(Sam Altman)對談。蓋茨直言:「我沒想到ChatGPT變得這麼好,這讓我大吃一驚!」又說人類至今還搞不清楚其運作原理。阿爾特曼回應稱,ChatGPT運作起來有點似人類的大腦,不知道神經元在做什麼。
談到AI有潛力的領域,阿爾特曼認為可用於醫療保健及教育,尤其是電腦程式設計。「如果你讓程式設計師的效率提高3倍,這不僅是做多3倍工作,而是他們可在更高的抽象層次上,以更多腦力思考完全不同事情。」
百度澄清未與軍方合作
他預計,AI將成為非常強大系統,運算力甚至比GPT-4高出10萬、100萬倍,它將影響社會、地緣政治權力平衡。他建議為AI引入監管,例如借鑑國際原子能機構(IAEA)的模式,相信這做法獲多國元首支持。
另外,香港《南華早報》引用一篇論文報道,中國軍方相關研究室,涉以百度(09888)的文心大模型,以及科大訊飛的星火模型,冀令軍事AI更人性化。百度昨澄清,未與論文作者或其所屬的任何機構,進行業務合作或客製化服務。其後《南華早報》已對原有報道作出了澄清及更正。