發布日期 (HKT) 2023-08-01
【防詐騙貼士】 接聽來歷不明的視像通話須警惕,可要求對方做指定動作識別是否為AI詐騙
View this post on Instagram
摘要:
1、近期,不少網友表示收到來自陌生號碼的視像通話邀請,這種情況極有可能是遇到結合人工智能(AI)技術的詐騙。
2、騙徒可以通過視像通話的方式收集聲音、容貌等生物特徵信息進行「深度偽造」(deepfake),再通過視像通話利用偽造的影片進行詐騙、勒索。
3、在收到來歷不明的視像通話邀請時,最好避免接聽。如需接聽,應提高警惕,通過其他方式與親友核實通話內容,仔細甄別對方身份的真偽,並在通話時保護好個人生物特徵信息,以免造成財產損失。
你需要了解:
近期,不少網友表示收到來自陌生號碼或郵箱的視像通話邀請,接聽後,對方的視像畫面有時會顯示圖片廣告或動態人像,有時則會顯示親友的面容及聲音。上述情況極有可能是遇到了結合人工智能技術的詐騙。
隨着深度偽造(deepfake)技術的發展,利用此技術模仿明星神態和發聲的娛樂類影片層出不窮,例如出現「AI孫燕姿」、「AI周杰倫」等。與此同時,該技術亦被詐騙集團所利用,他們通過收集用戶的聲音與外貌特徵,模擬真人形象,以騙取錢財。
2023年4月,內地曾發生一宗利用深度偽造技術進行電訊詐騙的案例。據新華網5月6日報道,受害人郭先生是一家科技公司的法人代表,他接到自己某位「好友」的微信視像通話,在確認了對方的面孔和聲音後,便按照這位「好友」的請求,將430萬元人民幣轉到對方指定的銀行卡上。郭先生其後向好友本人核實,才發現自己遇到了「AI換臉詐騙」。
除了透過模擬親友形象來獲取受害人信任以進行詐騙外,騙徒還有可能利用視像通話等方式來收集接聽者的聲音和樣貌信息,以便其後用於詐騙。香港警務處推出的防詐騙平台「守網者」顯示,除了用作投資與電話騙案,深偽技術還有可能被用於勒索以及入侵電腦。
據明報、文匯網等多家傳媒報道,香港警方消息指,本港已有涉及深偽技術的詐騙呈報個案。當中,2023年3月,一名25歲本港男子在交友平台玩裸聊,被誘騙下載不知名的手機程式,騙徒透過視像功能盜取受害人的容貌特徵及手機通訊錄,再以深偽技術將他的面容移花接木到色情影片,並勒索一萬港元。
「守網者」平台查證發現,香港及內地暫未有實時的AI換臉視像通話騙案,目前兩地用作詐騙的片段均屬預先製作的影片。除了視像通話外,騙徒還有可能通過用戶在社交平台發布的圖片和影片等方式來獲取聲音及容貌特徵。
Anti-Fraud Tips
結合目前AI深偽詐騙的模式及警務處的防詐騙提示,浸大事實查核團隊建議讀者可採取以下措施,以應對此類詐騙:
1、避免接聽陌生號碼打來的視像電話。可使用香港警務處提供的一站式詐騙陷阱搜尋工具「防騙視伏器」,查核可疑的平台帳戶名稱、收款帳戶、電話號碼、電郵地址、網址等。
2、如需接聽陌生來電,請保護好自己的面容、聲音等生物特徵信息。平日盡量減少在社交平台發布包含自身及親友明顯外貌特徵的照片或影片,以防被他人竊取。
3、如遇到來自親友的視像來電,涉及金錢或其他敏感內容,可要求對方按指令做動作,以確認接收到的不是預先製作好的仿真影片,亦可觀察影片是否出現深偽技術現階段容易出現的破綻,例如眼神、口型或手指動作不協調等。
4、如對方提出轉帳等要求,請及時以其他方式向親友核實情況,避免造成財產損失。
參考資料
- Facebook帖文
- 守網者:《深度偽造》
- 新華網:《包頭警企聯動緊急止付福州電詐被騙資金336萬元》
- 守網者:《如真如假 • AI 換臉視像通話詐騙殺到?》
- 明報:《「眼見未為實」 港現深偽盜臉詐騙 事主疑直播App聊天遭截圖 被「移花接木」色情片勒索》
- 文匯網:《AI變臉換聲詐騙全球蔓延 香港警方教絕招》
- 香港01:《騙徒AI換臉換聲詐騙 方保僑籲別接聽不明視像來電 教路5招自保》