Categories 查核貼士

發布日期 (HKT) 2023-08-01

【防詐騙貼士】 接聽來歷不明的視像通話須警惕,可要求對方做指定動作識別是否為AI詐騙

 

View this post on Instagram

 

A post shared by 浸大事實查核 (@hkbufactcheck)

摘要:

1、近期,不少網友表示收到來自陌生號碼的視像通話邀請這種情況極有可能是遇到結合人工智能(AI)技術的詐騙。 

2、騙徒可以通過視像通話的方式收集聲音、容貌等生物特徵信息進行「深度偽造」(deepfake),再通過視像通話利用偽造的影片進行詐騙、勒索 

3、在收到來歷不明的視像通話邀請時,最好避免接聽。如需接聽,應提高警惕,通過其他方式與親友核實通話內容仔細甄別對方身份的真偽,並在通話時保護好個人生物特徵信息,以免造成財產損失。 

 

 

你需要了解:

近期,不少網友表示收到來自陌生號碼或郵箱的視像通話邀請接聽後,對方的視像畫面有時會顯示圖片廣告或動態人像有時則會顯示親友的面容及聲音上述情況極有可能是遇到了結合人工智能技術的詐騙 

隨着深度偽造(deepfake)技術的發展,利用此技術模仿明星神態和發聲的娛樂類影片層出不窮,例如出現「AI孫燕姿」、「AI周杰倫等。與此同時,該技術亦被詐騙集團所利用,他們通過收集用戶的聲音與外貌特徵模擬真人形象,以騙取錢財。 

20234月,內地曾發生一宗利用深度偽造技術進行電訊詐騙的案例據新華網5月6日報道受害人郭先生是一家科技公司的法人代表他接到自己某位「好友」的微信視像通話,在確認了對方的面孔和聲音後,便按照這位「好友」的請求將430萬元人民幣轉到對方指定的銀行卡上郭先生其後向好友本人核實才發現自己遇到了「AI換臉詐騙」。 

除了透過模擬親友形象來獲取受害人信任以進行詐騙外,騙徒還有可能利用視像通話等方式來收集接聽者的聲音和樣貌信息,以便其後用於詐騙香港警務處推出的防詐騙平台守網者顯示,除了用作投資與電話騙案,深偽技術還有可能被用於勒索以及入侵電腦 

明報文匯網等多家傳媒報道香港警方消息指,本港已有涉及深偽技術的詐騙呈報個案。當中,2023年3月,一名25歲本港男子在交友平台玩裸聊,被誘騙下載不知名的手機程式,騙徒透過視像功能盜取受害人的容貌特徵及手機通訊錄,再以深偽技術將他的面容移花接木到色情影片,並勒索一萬港元 

「守網者」平台查證發現,香港及內地暫未有實時的AI換臉視像通話騙案,目前兩地用作詐騙的片段均屬預先製作的影片除了視像通話外,騙徒還有可能通過用戶在社交平台發布的圖片和影片等方式來獲取聲音及容貌特徵。  

 

防詐騙貼士

結合目前AI深偽詐騙的模式及警務處的防詐騙提示浸大事實查核團隊建議讀者可採取以下措施,以應對此類詐騙: 

1、避免接聽陌生號碼打來的視像電話可使用香港警務處提供的一站式詐騙陷阱搜尋工具「防騙視伏器」,查核可疑的平台帳戶名稱、收款帳戶、電話號碼、電郵地址、網址等。 

2、如需接聽陌生來電,請保護好自己的面容、聲音等生物特徵信息平日盡量減少在社交平台發布包含自身及親友明顯外貌特徵的照片或影片,以防被他人竊取 

3、如遇到來自親友的視像來電,涉及金錢或其他敏感內容,可要求對方按指令做動作,以確認接收到的不是預先製作好的仿真影片,亦可觀察影片是否出現深偽技術現階段容易出現的破綻,例如眼神、口型或手指動作不協調等 

4、如對方提出轉帳等要求,請及時以其他方式向親友核實情況,避免造成財產損失