You are currently at: ejtech.hkej.com
Skip This Ads
Don't Miss

深偽詐騙|HKCERT呼籲:公眾應提高警惕,謹防AI Deepfake技術詐騙

By on February 8, 2024

近日,警方首次發現有騙徒利用人工智能深偽技術(Deepfake)在網上會議假冒成多名人士,欺騙與會的一名職員,這名職員最終分15次,把2億元轉賬至5個本地戶口。今次是本港至今單一損失金額最大的深度偽造技術騙案。

近日,警方發現有騙徒利用人工智能深偽技術騙取2億元。(Freepik網上圖片)

香港電腦保安事故協調中心(HKCERT)資料顯示,Deepfake是深度學習(Deep Learning)和偽造的混成詞。泛指以人工智能(AI)製作偽造訊息,如影像、聲音等。具體例子為,影片中的人臉被替換成另一人的面孔。

這種技術亦可被用於偽造人聲,只需輸入字句便能假借受害者之聲線讀出,意味着製作深偽影片毋須配音員亦能完成。是次事件中,不法分子利用網上平台找到的臉部外觀和聲音來製作 Deepfake視像會議影片。

HKCERT呼籲公眾對此類利用AI Deepfake技術的詐騙提高警惕,並採取以下措施保障自身利益:

1.在進行視像會議前,應核實會議邀請者及會議連結的來源;

2.對於任何影像和聲音,應該保持謹慎態度,向多方查證當中資訊的真偽;

3.加謹留意影像和聲音,以分辨是否經由 Deepfake 技術製造。與真實的影像和聲音相比,大多數 Deepfake影像和聲音會有聲畫不一致的細微缺陷;

4.應對可疑視像會議時,可要求對方在鏡頭前做出點頭、揮手、掩面或移動鏡頭等動作;

5.切勿在陌生對話中透露個人敏感訊息,如密碼、銀行賬戶號碼等;

6.避免接聽來自不明來電的視像通話,騙徒可能會藉此收集你的樣貌影像用以製作Deepfake影片;

7.避免在社交平台上分享過多個人資訊,尤其是臉部和語音等生物辨識資訊;

8.收到帶有緊急語調或有好處的資訊時要更加謹慎和警惕,網上騙徒通常會以這些伎倆來吸引更多的受害者跌入其陷阱;

9.進行視像會議時,應檢查並核實與會者的身份,例如透過詢問只有你和該與會者知道的訊息來進行核實;及

10.提防釣魚攻擊,切勿點擊或打開任何可疑連結或附件。

支持EJ Tech

如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們