防范“AI換臉”詐騙行為
本報記者 屈信明
《 人民日報 》( 2024年04月12日 第 19 版)
近年來,多個行業(yè)創(chuàng)新人工智能技術應用場景,銀行智能機器人、虛擬主持人等為社會公眾提供了越來越多便捷、智能的服務。然而,也有不法分子通過“AI擬聲”“AI換臉”,融合他人面孔和聲音制作虛假圖像和音視頻,仿冒他人身份實施誘騙受害者轉賬等犯罪行為。這類詐騙方式變化多樣、難以分辨,消費者容易落入騙局。專家提示廣大消費者,要警惕利用AI技術實施的詐騙行為,保護個人及家庭財產安全。
國家金融監(jiān)督管理總局發(fā)布的消費者權益保護風險提示中介紹,利用AI技術實施詐騙主要有“擬聲”“換臉”兩種手段,即通過模擬他人聲音或形象騙取信任,進而詐騙錢財。不法分子通常先以“網店客服”“營銷推廣”“招聘兼職”“婚戀交友”等為借口,通過微信、QQ、電話等方式聯(lián)系消費者,采集聲音或面部信息。再利用“擬聲”“換臉”等技術合成消費者的虛假音頻或視頻、圖像,以借錢、投資、緊急救助等借口誘導其親友轉賬匯款,或提供銀行賬戶密碼等敏感信息,隨后立即轉移資金。此外,不法分子還可能對明星、專家、官員等音視頻進行人工合成,假借其身份傳播虛假信息,從而實現(xiàn)詐騙目的。
專家表示,網絡渠道“眼見”不一定為實!皵M聲”“換臉”等合成技術的一大特點是“以假亂真”,不法分子可以利用此類技術輕易偽裝成他人,并通過快速篩選目標人群、精準定制詐騙腳本,實施詐騙。因此,在涉及資金往來時,一個“聲音很熟的電話”、一段“貌似熟人的視頻”都可能是不法分子的詐騙套路,消費者應提高警惕。
為保護廣大金融消費者合法權益,國家金融監(jiān)督管理總局廈門監(jiān)管局提示廣大消費者,轉賬匯款務必核驗對方身份。對自稱的“親友”“熟人”線上發(fā)來的消息,若包含轉賬匯款、提供個人信息、提供短信驗證碼等請求,應保持高度警惕,采取多種方式確認對方身份。專家介紹,“AI擬聲”“AI換臉”包裝作偽后的通話和視頻雖然能逼真地模仿原始人物的語言和行為,但仍然存在破綻,例如眨眼頻率過低、眼睛移動不協(xié)調、面部表情不自然、唇形不匹配、語句不連貫等。如果在與親友視頻語音溝通中發(fā)現(xiàn)上述異常,消費者應立即警覺起來。在無法確認對方身份時,應盡量避免轉賬操作。
此外,消費者應提高個人信息保護意識,盡量避免在互聯(lián)網過多暴露個人照片、聲音、視頻等信息,要對需要錄入個人信息的非正規(guī)軟件特別警惕。在開啟“定位服務”、輸入“身份證號”或是錄入“人臉識別信息”“指紋識別信息”等個人生物信息時,一定要慎之又慎;發(fā)現(xiàn)APP過度、強制收集個人信息時及時向有關部門投訴舉報。妥善設置個人社交賬戶的瀏覽權限,不過度公開或分享涉及個人信息的動圖、視頻等,不輕易向陌生人開啟手機屏幕共享。(人民日報)
責任編輯:王雨蜻