“AI換臉”詐騙來了!小心“好友”不友好
和你視頻對話的,可能不是本人!有人10分鐘被騙430萬 提醒:涉資金轉賬先多種方式確認
(相關資料圖)
新華社 圖
10分鐘被騙430萬!5月22日,一起利用人工智能(AI)實施電信詐騙的典型案例沖上熱搜,引發(fā)全網關注。
“和你視頻對話的,可能不是本人!”5月23日,三湘都市報記者從長沙市反詐中心獲悉,長沙暫未接到“AI換臉”類型詐騙。警方提醒,針對花樣翻新的智能AI詐騙,公眾要提高防范意識。
■全媒體記者 楊潔規(guī)
【體驗】
一條30秒“AI換臉”視頻,最低僅需5元
去年9月,長沙市反電詐中心曾發(fā)布過一份警方緊急預警,提醒大家謹慎使用“AI換臉”軟件,以防造成個人信息泄露并被利用于電信網絡詐騙。
技術改變生活,也改變了騙術。騙子很快就把新技術應用到了詐騙當中。騙子可以通過錄音提取聲音,利用AI“變聲”技術對錄音素材進行剪輯合成,用偽造的聲音實施詐騙;通過收集發(fā)布的照片、視頻,利用AI技術“換臉”,用偽造的照片或視頻實施詐騙;通過AI技術收集個人信息并對人物性格、需求傾向等進行刻畫,根據(jù)所要實施詐騙的方式對人群進行篩選,選出目標人群。
5月23日,三湘都市報記者以使用者的身份咨詢了一家提供“換臉軟件”網站。
該網站客服表示,如要實現(xiàn)實時換臉,則需要從零開始訓練“數(shù)字人”,如果24小時掛機不停地訓練模型,需要經過半個月到一個月的時間,才能達到可以合成視頻的效果,費用在20萬元一年。
比起定制“數(shù)字人”,更多人選擇購買現(xiàn)成的模型。該網站客服稱:“只是五官的替換,可以替換任意素材使用,不分張三李四。至于費用,處理量越大,費用越低,一條30秒以內的視頻最低僅需5元?!?/p>
【提醒】
涉及資金轉賬時要通過多種方式確認
長沙市反電詐中心提醒,涉及資金轉賬時,市民要提高安全意識,通過多種方式確認對方是否為本人,也可將轉賬到賬時間設定為 “24小時到賬”,以預留處理時間。
針對支付軟件以及網銀軟件,要使用多種登錄及轉賬驗證方式。針對花樣翻新的智能AI詐騙,公眾要提高防范意識,應謹慎使用各類AI“換臉”、AI“變聲”軟件,加強個人信息保護意識,避免注冊不需要的賬號、填寫不必要的個人信息,以防個人信息泄露。面對不斷更新的網絡技術和詐騙方式,市民要堅持不輕信、不透露、不點擊、不轉賬。
記者了解到,隨著技術迭代不斷加速,與之對應的,對人工智能技術的法律規(guī)制和政策引導也在不斷完善。今年1月,國家互聯(lián)網信息辦公室、工業(yè)和信息化部、公安部聯(lián)合發(fā)布的《互聯(lián)網信息服務深度合成管理規(guī)定》正式實施,要求深度合成服務提供者落實信息安全主體責任。
4月11日,國家網信辦發(fā)布了《生成式人工智能服務管理辦法(征求意見稿)》,共21條,對生成式人工智能產業(yè)給出較為詳盡的規(guī)定,其中包括定義、準入資格、責任義務和處罰措施等。
(一審:謝振華 二審:鄧望軍 三審:石偉)