GPT-4o擅長識別情感具突破性(車品覺)
本文作者車品覺,為香港科技園有限公司董事、香港大學中國商學院客座副教授、阿里雲資深顧問,為《信報》撰寫專欄「全民大數據」。
美企OpenAI近日發布新一代旗艦模型GPT-4o,這不僅是技術上的一次飛躍,也在人工智能(AI)與人類交互方式開闢了新道路。GPT-4o突顯了多模態輸入及輸出能力。多模態能力意指,它能同時處理文本、圖像和音頻數據之間的即時反饋和交互能力,例如以文字描述一個問題時,用戶可以加入圖像作補充;當AI應對時,又可以選擇生成音頻答案作輸出。
GPT-4o改善了回應速度,幾乎達到人類實時對話的流暢度。從技術數據來看,GPT-4o能在232毫秒內回應音頻輸入,這速度與人類對話的自然停頓相若,極大地增強了用戶體驗。這改進不僅讓AI助手在日常使用表現更趨自然,亦使它在緊急情況下提供指導和幫助,變得更加可行和高效。
情感識別能力是GPT-4o另一大突破。在直播示範中,ChatGPT能夠識別並了解用戶情緒,如透過聲音的抑揚頓挫來感知用戶壓力,並提出相應的建議來紓緩情緒。這種情感互動能力,使AI不僅僅是一個執行命令的工具,更是一個能夠提供情感支持的夥伴。
介面和用戶交互方面,OpenAI帶來了新變化。在新的桌面和手機應用介面,能夠通過快捷鍵和直接擷取熒幕討論等功能,用戶能更快速、更自然地與ChatGPT交流。這種設計不僅提升了效率,也讓用戶體驗更加流暢和愉悅。
OpenAI是次發布的「免費優先」產品理念和策略,也是值得注意的一點。這方針可能會加速AI技術普及和應用,尤其是在教育和開發的低資源地區,免費高質量AI服務,可能會帶來變革性影響。
在技術和應用上,雖然GPT-4o展示了顯著進步,但其推出亦引發批評和擔憂。有觀點認為,儘管GPT-4o能力多麼強大,OpenAI並未發布外界更為期待的GPT-5,這可能表明在更高級別的AI開發路上遇到障礙。筆者覺得,還有另一個可能性,就是隱藏實力,讓對手更難掌握其真正發展趨勢,我們不妨拭目以待。