防范“AI換臉”詐騙行為
本報記者 屈信明
《 人民日報 》( 2024年04月12日 第 19 版)
近年來,多個行業(yè)創(chuàng)新人工智能技術(shù)應(yīng)用場景,銀行智能機器人、虛擬主持人等為社會公眾提供了越來越多便捷、智能的服務(wù)。然而,也有不法分子通過“AI擬聲”“AI換臉”,融合他人面孔和聲音制作虛假圖像和音視頻,仿冒他人身份實施誘騙受害者轉(zhuǎn)賬等犯罪行為。這類詐騙方式變化多樣、難以分辨,消費者容易落入騙局。專家提示廣大消費者,要警惕利用AI技術(shù)實施的詐騙行為,保護個人及家庭財產(chǎn)安全。
國家金融監(jiān)督管理總局發(fā)布的消費者權(quán)益保護風險提示中介紹,利用AI技術(shù)實施詐騙主要有“擬聲”“換臉”兩種手段,即通過模擬他人聲音或形象騙取信任,進而詐騙錢財。不法分子通常先以“網(wǎng)店客服”“營銷推廣”“招聘兼職”“婚戀交友”等為借口,通過微信、QQ、電話等方式聯(lián)系消費者,采集聲音或面部信息。再利用“擬聲”“換臉”等技術(shù)合成消費者的虛假音頻或視頻、圖像,以借錢、投資、緊急救助等借口誘導(dǎo)其親友轉(zhuǎn)賬匯款,或提供銀行賬戶密碼等敏感信息,隨后立即轉(zhuǎn)移資金。此外,不法分子還可能對明星、專家、官員等音視頻進行人工合成,假借其身份傳播虛假信息,從而實現(xiàn)詐騙目的。
專家表示,網(wǎng)絡(luò)渠道“眼見”不一定為實!皵M聲”“換臉”等合成技術(shù)的一大特點是“以假亂真”,不法分子可以利用此類技術(shù)輕易偽裝成他人,并通過快速篩選目標人群、精準定制詐騙腳本,實施詐騙。因此,在涉及資金往來時,一個“聲音很熟的電話”、一段“貌似熟人的視頻”都可能是不法分子的詐騙套路,消費者應(yīng)提高警惕。
為保護廣大金融消費者合法權(quán)益,國家金融監(jiān)督管理總局廈門監(jiān)管局提示廣大消費者,轉(zhuǎn)賬匯款務(wù)必核驗對方身份。對自稱的“親友”“熟人”線上發(fā)來的消息,若包含轉(zhuǎn)賬匯款、提供個人信息、提供短信驗證碼等請求,應(yīng)保持高度警惕,采取多種方式確認對方身份。專家介紹,“AI擬聲”“AI換臉”包裝作偽后的通話和視頻雖然能逼真地模仿原始人物的語言和行為,但仍然存在破綻,例如眨眼頻率過低、眼睛移動不協(xié)調(diào)、面部表情不自然、唇形不匹配、語句不連貫等。如果在與親友視頻語音溝通中發(fā)現(xiàn)上述異常,消費者應(yīng)立即警覺起來。在無法確認對方身份時,應(yīng)盡量避免轉(zhuǎn)賬操作。
此外,消費者應(yīng)提高個人信息保護意識,盡量避免在互聯(lián)網(wǎng)過多暴露個人照片、聲音、視頻等信息,要對需要錄入個人信息的非正規(guī)軟件特別警惕。在開啟“定位服務(wù)”、輸入“身份證號”或是錄入“人臉識別信息”“指紋識別信息”等個人生物信息時,一定要慎之又慎;發(fā)現(xiàn)APP過度、強制收集個人信息時及時向有關(guān)部門投訴舉報。妥善設(shè)置個人社交賬戶的瀏覽權(quán)限,不過度公開或分享涉及個人信息的動圖、視頻等,不輕易向陌生人開啟手機屏幕共享。(人民日報)